Model Card
Overview
EvaGPT-German-0.7B - MaTeLiX-AI-for-Pretraining ist ein untrainiertes Large Language Model (LLM), das exklusiv für das MaTeLiX Trainingsdashboard bereitgestellt wird. Das Modell unterstützt Deutsch und Englisch und dient als reine Ausgangsbasis für das Pretraining.
WICHTIG: Dieses Modell ist untrainiert! Es wurde lediglich der Tokenizer initialisiert, das Modell selbst ist komplett untrainiert (“random init”). Für jegliche sinnvolle Nutzung – auch Tests oder Experimente – ist ein vollständiges Pretraining zwingend erforderlich.
- Typ: Rolling LLM (untrainiert, nur Tokenizer)
- Kompatibilität: Transformers Library
- Zweck: Basis für Pretraining und experimentelle Zwecke im MaTeLiX-Ökosystem
Hinweis zur Architektur
Der Code Name des Model ist EvaGptForCausalLM.
Die Architektur wurde selbst entwickelt. Die Architecktur kann über Github bezogen werden: https://github.com/MTSmash-TMP-Networks/transformers-eva-gpt
Nutzung im MaTeLiX Dashboard
Dieses Modell ist ausschließlich für die Nutzung innerhalb des MaTeLiX Trainingsdashboards bestimmt. Eine Verwendung außerhalb dieser Plattform ist nicht vorgesehen und wird nicht unterstützt.
Anwendung: Im MaTeLiX Dashboard dient dieses Modell als Ausgangspunkt für Pretraining-Experimente und Modell-Entwicklung. Alle Trainings- und Feineinstellungen werden über das Dashboard gesteuert.
Technische Details
- Architektur: Eigene Entwicklung, Kompatibilität über
MistralForCausalLM - Sprachen: Deutsch, Englisch
- Status: Untrainiert, nur Tokenizer initialisiert
- Trainingsdaten: Noch keine (Pretraining erforderlich)
- Hinweis: Nicht für produktive Nutzung geeignet
Lizenz & Haftungsausschluss
Dieses Modell ist ausschließlich für Demonstrations-, Entwicklungs- und Trainingszwecke im MaTeLiX Trainingsdashboard vorgesehen. MaTeLiX übernimmt keinerlei Haftung für Modellantworten, Fehler oder unerwünschtes Verhalten. Für jede produktive oder externe Nutzung ist ein vollständiges Pretraining und ggf. weiteres Finetuning erforderlich.
Kontakt
Fragen zur Nutzung oder zum Pretraining bitte an das MaTeLiX Support-Team.
- Downloads last month
- 33