Astrollm / app.py
GoshawkVortexAI's picture
Update app.py
1c8cec8 verified
# app.py
import subprocess
import sys
import importlib
# Paketleri kontrol et, yoksa yükle
def install_if_missing(package):
try:
importlib.import_module(package)
except ImportError:
print(f"{package} bulunamadı, yükleniyor...")
subprocess.check_call([sys.executable, "-m", "pip", "install", package])
# Gerekli paketler
install_if_missing("transformers")
install_if_missing("torch")
install_if_missing("gradio")
# Şimdi import edebiliriz
import gradio as gr
from transformers import LlamaForCausalLM, LlamaTokenizer
import torch
# Model ID Hugging Face üzerinde
MODEL_ID = "GoshawkVortexAI/ggml-alpaca-7b-q4"
# Tokenizer ve modeli yükle (CPU için)
print("Model yükleniyor... Bu biraz zaman alabilir.")
tokenizer = LlamaTokenizer.from_pretrained(MODEL_ID)
model = LlamaForCausalLM.from_pretrained(
MODEL_ID,
device_map="cpu",
torch_dtype=torch.float32
)
print("Model yüklendi.")
# Tahmin fonksiyonu
def generate(prompt):
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=128)
text = tokenizer.decode(outputs[0], skip_special_tokens=True)
return text
# Gradio arayüzü
iface = gr.Interface(
fn=generate,
inputs=gr.Textbox(lines=3, placeholder="Prompt yazın..."),
outputs="text",
title="Alpaca-7B Q4 CPU",
description="Hugging Face üzerinden CPU'da çalışan Alpaca modeline prompt girin."
)
if __name__ == "__main__":
iface.launch()