Spaces:
Sleeping
Sleeping
| import gradio as gr | |
| from huggingface_hub import InferenceClient | |
| import os | |
| from dotenv import load_dotenv | |
| # Загрузка файла .env (если ты тестируешь локально) | |
| load_dotenv() | |
| # Получение токена из переменной окружения | |
| HF_TOKEN = os.getenv("HF_TOKEN") | |
| # Настройка клиента Hugging Face с токеном | |
| client = InferenceClient(model="IlyaGusev/saiga_llama3_8b", token=HF_TOKEN) | |
| def summarize(text): | |
| """ | |
| Функция для вызова модели Hugging Face через API. | |
| """ | |
| try: | |
| response = client.text_generation(text, max_new_tokens=100, do_sample=False) | |
| return response | |
| except Exception as e: | |
| return f"Произошла ошибка: {e}" | |
| # Интерфейс Gradio | |
| demo = gr.Interface( | |
| fn=summarize, | |
| inputs=gr.Textbox(lines=5, label="Введите текст для суммаризации"), | |
| outputs=gr.Textbox(label="Результат суммаризации"), | |
| title="Суммаризация текста" | |
| ) | |
| if __name__ == "__main__": | |
| demo.launch() | |