📜 Documentation : Learnia-Gemini-Test 🧬

Learnia

🏗️ Genèse du Projet

Learnia-Gemini-Test n'est pas une simple itération. C'est un "stress-test" syntaxique. Le modèle de base, Learnia (52M), conçu intégralement from scratch, a été injecté d'une couche comportementale spécifique via un fine-tuning ciblé.

L'objectif : Observer comment une architecture légère et originale absorbe, digère et recrache les patterns de réponse d'un modèle massif comme Gemini.


📊 Spécifications Techniques

Paramètre Détail
Base Model Learnia (Original Architecture)
Taille 52 Million Parameters
Nature Decoder-only Transformer
Fine-tuning Hugging Face Public Dataset (Gemini Outputs)
Vocation Recherche, simulation de logs, exploration de syntaxe hybride

🧠 Comportement & Texture

Contrairement aux modèles lisses, Learnia-Gemini-Test conserve la "nervosité" de l'architecture Learnia.

  • Hybridation : Le modèle mélange la structure brute de Learnia avec les tics de langage formels de Gemini.
  • Output : Génère des paragraphes entiers structurés comme des réponses d'assistant, mais avec la signature thermique unique d'un modèle de 52M.
  • Usage : Idéal pour des projets créatifs où l'on cherche une "IA qui imite une IA", créant un effet de mise en abyme.

🛠️ Installation & Inférence

Pour charger le modèle via la bibliothèque transformers :

from transformers import AutoModelForCausalLM, AutoTokenizer

# Chargement de la signature Learnia
tokenizer = AutoTokenizer.from_pretrained("ton-path/learnia-gemini-test")
model = AutoModelForCausalLM.from_pretrained("ton-path/learnia-gemini-test")

# Test de génération
prompt = "System Log: Analysis of..."
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=150)

⚠️ Note sur l'ADN "From Scratch"

Ce modèle n'est pas une copie. C'est une interprétation. Les erreurs de syntaxe potentielles ou les cassures de rythme ne sont pas des bugs, mais la preuve de l'existence d'un moteur de langage indépendant qui refuse de se lisser totalement derrière le dataset d'affinage.

Downloads last month
34
Safetensors
Model size
51.6M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Finisha-LLM/Learnia-gemini-test

Finetuned
(7)
this model

Dataset used to train Finisha-LLM/Learnia-gemini-test