| | import gradio as gr |
| | from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline |
| |
|
| | |
| | model_id = "bigcode/starcoder2-3b" |
| | tokenizer = AutoTokenizer.from_pretrained(model_id) |
| | model = AutoModelForCausalLM.from_pretrained(model_id) |
| |
|
| | |
| | generator = pipeline("text-generation", model=model, tokenizer=tokenizer) |
| |
|
| | |
| | def generate_code(prompt): |
| | output = generator(prompt, max_length=256, do_sample=True, temperature=0.7) |
| | return output[0]["generated_text"] |
| |
|
| | |
| | iface = gr.Interface( |
| | fn=generate_code, |
| | inputs=gr.Textbox(lines=10, label="💡 أدخل بداية كود برمجي هنا"), |
| | outputs=gr.Textbox(label="🧠 ناتج المساعد البرمجي"), |
| | title="🤖 مساعد البرمجة باستخدام StarCoder2", |
| | description="أدخل بداية الكود وسيقوم الذكاء الاصطناعي بإكماله تلقائيًا" |
| | ) |
| |
|
| | iface.launch() |