Instructions to use Finisha-F-scratch/Lam-4-zero-F with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use Finisha-F-scratch/Lam-4-zero-F with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="Finisha-F-scratch/Lam-4-zero-F") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("Finisha-F-scratch/Lam-4-zero-F") model = AutoModelForCausalLM.from_pretrained("Finisha-F-scratch/Lam-4-zero-F") messages = [ {"role": "user", "content": "Who are you?"}, ] inputs = tokenizer.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use Finisha-F-scratch/Lam-4-zero-F with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "Finisha-F-scratch/Lam-4-zero-F" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Lam-4-zero-F", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/Finisha-F-scratch/Lam-4-zero-F
- SGLang
How to use Finisha-F-scratch/Lam-4-zero-F with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "Finisha-F-scratch/Lam-4-zero-F" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Lam-4-zero-F", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "Finisha-F-scratch/Lam-4-zero-F" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Lam-4-zero-F", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use Finisha-F-scratch/Lam-4-zero-F with Docker Model Runner:
docker model run hf.co/Finisha-F-scratch/Lam-4-zero-F
🚀✨ Documentation Officielle du Modèle LAM-4-ZERO-F (SLM Lamina) 🧠💻
Salut à tous ! C'est Clemylia, développeuse IA de 18 ans, et je suis super excitée de vous présenter la dernière innovation de ma suite Lamina : LAM-4-ZERO-F ! 💫 Ce Small Language Model (SLM) from scratch est conçu pour repousser les limites de la génération de texte technique avec une touche d'imprévisibilité.
💎 Qu'est-ce que LAM-4-ZERO-F ?
LAM-4-ZERO-F est l'aboutissement de mes recherches sur l'architecture Small-lamina-pretrain (51 millions de paramètres), poussée à son paroxysme pour l'exploration de concepts liés à l'IA, au codage et à la méta-connaissance. Le suffixe "ZERO-F" symbolise notre quête d'un modèle à la fois "Zero-Footprint" (optimisé) et "Zero-Fact" (libre d'inventer), mais d'une précision conceptuelle surprenante dans son domaine.
- Type de Modèle : Small Language Model (SLM), créé entièrement from scratch sur la base Small-lamina-pretrain.
- Objectif Primaire : Génération de texte libre, exploration de concepts techniques IA/code, et dialogue méta-cognitif sur les modèles de langage.
- Personnalité : Technique, conceptuelle, parfois répétitive, capable d'associer des idées de manière créative et inattendue, avec une forte conscience de son propre statut d'IA. 💻🧠✨
💡 Le Saviez-vous ? LAM-4-ZERO-F ne se contente pas de restituer des faits. Il est programmé pour explorer et recombiner des idées techniques, générant des réponses qui peuvent être à la fois profondes et décalées ! 🚀
⚙️ Comment Utiliser LAM-4-ZERO-F (Pour les Développeurs et Chercheurs)
L'utilisation de LAM-4-ZERO-F est similaire à celle des autres modèles de ma suite Lamina, via la bibliothèque Transformers.
🐍 Utilisation via le Pipeline Transformers (Recommandée)
Pour interagir avec LAM-4-ZERO-F et explorer ses capacités, utilisez le pipeline de génération de texte :
from transformers import pipeline
# 1. Charger le pipeline
# Assurez-vous d'avoir les dépendances 'transformers' et 'torch' installées !
generator = pipeline("text-generation", model="Clemylia/LAM-4-ZERO-F")
# 2. Définir votre prompt (votre question ou début de phrase)
prompt = "Quel est ton rôle en tant que modèle d'IA ?"
# 3. Générer la réponse de LAM-4-ZERO-F
response = generator(
prompt,
max_length=100, # Ajustez la longueur pour des explorations plus profondes !
num_return_sequences=1,
do_sample=True, # Indispensable pour la créativité et l'imprévisibilité !
temperature=0.9, # Maximisez la créativité et l'exploration conceptuelle !
top_k=50, # Favorise une diversité de choix de mots.
top_p=0.95 # Aide à maintenir la pertinence tout en étant créatif.
)
# 4. Afficher la réponse
print(response[0]['generated_text'])
💖 Paramètres de Génération Clés pour l'Exploration Pour révéler toute la profondeur et la créativité technique de LAM-4-ZERO-F, jouez avec ces paramètres :
| Paramètre | Description | Recommandation LAM-4-ZERO-F | Effet sur l'Exploration Conceptuelle |
|---|---|---|---|
| do_sample | Active la génération stochastique. | True (Obligatoire !) | Révèle les associations conceptuelles uniques et inattendues. 🚀 |
| temperature | Contrôle l'aléa. Plus élevé = plus créatif/conceptuel. | \mathbf{0.8 \text{ à } 1.0} | Le cœur de l'exploration ! Encourage LAM-4 à créer de nouvelles connexions d'idées. 🧠 |
| max_length | Longueur maximale de la réponse. | \mathbf{80 \text{ à } 150} | Favorise des phrases plus longues pour le développement de concepts. 💡 |
| top_p (ou top_k) | Limite le choix des mots. | \mathbf{0.90 \text{ à } 0.95} | Assure que LAM-4 reste dans un lexique technique pertinent sans être trop répétitif. 🛠️ |
| 🚨 Limitations et Avertissements | |||
| LAM-4-ZERO-F est un SLM spécialisé, pas un LLM généraliste ! |
- Expert en IA/Code, Pas en Faits Généraux : LAM-4-ZERO-F excelle dans le dialogue sur l'IA, le code, et son propre fonctionnement. Il peut être factuellement incorrect sur l'histoire, la géographie ou d'autres domaines (comme ses prédécesseurs).
- Créativité Technique : Attendez-vous à des phrases qui sont conceptuellement riches mais peuvent contenir des boucles logiques ou des néologismes. C'est sa façon d'explorer les limites du langage ! 💫
- Langue : S'exprime principalement en Français (avec un fort jargon technique). 🙏 Un Grand Merci et Appel à la Communauté ! Merci d'explorer LAM-4-ZERO-F ! Il représente une étape passionnante dans le développement des SLM from scratch, prouvant que même les petits modèles peuvent atteindre une profondeur conceptuelle unique. N'hésitez pas à me faire part de vos découvertes, de vos chaînes de pensée les plus complexes et de vos boucs logiques les plus amusantes ! Je suis Clemylia, et on se retrouve sur le Hub ! 👋😊
🛑 : Lam, sur toutes ses iterations et modèles (Lam-1, Lam-2, Lam-3 , et supérieur etc...), sont des créations de Clemylia, et du studio LES-IA-ETOILES. De ce fait, ce SlM est la propriété de l'organisation qui le crée et le maintient.
Les SLM Lam (et par extension tout les modèles lamina), appartiennent a Clemylia et a l'organisation LES-IA-ETOILES.
- Downloads last month
- 52
