Spaces:
Runtime error
Runtime error
| # app.py | |
| import subprocess | |
| import sys | |
| import importlib | |
| # Paketleri kontrol et, yoksa yükle | |
| def install_if_missing(package): | |
| try: | |
| importlib.import_module(package) | |
| except ImportError: | |
| print(f"{package} bulunamadı, yükleniyor...") | |
| subprocess.check_call([sys.executable, "-m", "pip", "install", package]) | |
| # Gerekli paketler | |
| install_if_missing("transformers") | |
| install_if_missing("torch") | |
| install_if_missing("gradio") | |
| # Şimdi import edebiliriz | |
| import gradio as gr | |
| from transformers import LlamaForCausalLM, LlamaTokenizer | |
| import torch | |
| # Model ID Hugging Face üzerinde | |
| MODEL_ID = "GoshawkVortexAI/ggml-alpaca-7b-q4" | |
| # Tokenizer ve modeli yükle (CPU için) | |
| print("Model yükleniyor... Bu biraz zaman alabilir.") | |
| tokenizer = LlamaTokenizer.from_pretrained(MODEL_ID) | |
| model = LlamaForCausalLM.from_pretrained( | |
| MODEL_ID, | |
| device_map="cpu", | |
| torch_dtype=torch.float32 | |
| ) | |
| print("Model yüklendi.") | |
| # Tahmin fonksiyonu | |
| def generate(prompt): | |
| inputs = tokenizer(prompt, return_tensors="pt") | |
| outputs = model.generate(**inputs, max_new_tokens=128) | |
| text = tokenizer.decode(outputs[0], skip_special_tokens=True) | |
| return text | |
| # Gradio arayüzü | |
| iface = gr.Interface( | |
| fn=generate, | |
| inputs=gr.Textbox(lines=3, placeholder="Prompt yazın..."), | |
| outputs="text", | |
| title="Alpaca-7B Q4 CPU", | |
| description="Hugging Face üzerinden CPU'da çalışan Alpaca modeline prompt girin." | |
| ) | |
| if __name__ == "__main__": | |
| iface.launch() |