- Cuenta en Groq Cloud (gratuita)
- API Key de Groq
- Visita console.groq.com
- Crea una cuenta o inicia sesión
- Ve a API Keys en el menú lateral
- Haz clic en Create API Key
- Dale un nombre descriptivo (ej: "Learning Analytics")
- Copia la API key (solo se muestra una vez)
Abre el archivo .env.local en la raíz del proyecto y reemplaza:
GROQ_API_KEY=tu-api-key-aquiPor tu API key real:
GROQ_API_KEY=gsk_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxpnpm devLa integración utiliza los siguientes modelos de Groq:
Características:
- ✅ Mejor opción para análisis educativo
- 🧠 Excelente razonamiento y comprensión de contexto
- 📊 Ideal para generar insights pedagógicos detallados
- ⚡ Velocidad: ~300 tokens/segundo
- 💰 Gratis con límites generosos
Límites del Plan Gratuito:
- 30 requests/minuto
- 14,400 tokens/minuto
Si necesitas ajustar el modelo, edita lib/actions/ai-analysis.ts:
const MODEL = 'llama-3.3-70b-versatile'; // Modelo actualOpciones:
| Modelo | Pros | Contras | Uso Recomendado |
|---|---|---|---|
llama-3.3-70b-versatile |
Mejor razonamiento, análisis profundo | Ligeramente más lento | ✅ Producción |
llama-3.1-70b-versatile |
Muy estable y confiable | Versión anterior | Backup confiable |
llama-3.1-8b-instant |
Ultra rápido (~800 tok/s) | Menos detallado | Pruebas rápidas |
mixtral-8x7b-32768 |
Ventana de contexto grande | Menos actualizado | Documentos largos |
- Inicia sesión como profesor
- Ve al dashboard de estudiantes
- Selecciona un estudiante con métricas
- Haz clic en "Generar Análisis"
- Espera 3-5 segundos
- Revisa el análisis generado
El LLM generará un reporte en Markdown con:
- 📊 Resumen Ejecutivo
- 🎯 Patrones de Aprendizaje Identificados
- 💪 Fortalezas Detectadas
- 🔍 Áreas de Oportunidad
- 📝 Recomendaciones Pedagógicas
- 🎓 Conclusión
En lib/actions/ai-analysis.ts, puedes modificar:
const chatCompletion = await groq.chat.completions.create({
model: MODEL,
temperature: 0.7, // Creatividad (0.0 = determinista, 1.0 = creativo)
max_tokens: 2048, // Longitud máxima de la respuesta
top_p: 1, // Diversidad de vocabulario
});Recomendaciones:
-
temperature: 0.7: Balance perfecto para análisis educativo
- Usa
0.5para respuestas más conservadoras - Usa
0.9para análisis más creativos
- Usa
-
max_tokens: 2048: Suficiente para un reporte completo
- Reducir a
1024para respuestas más concisas - Aumentar a
4096para análisis muy detallados
- Reducir a
- ✅ La API key está en
.env.local(no se sube a Git) - ✅ Las llamadas se hacen desde el servidor (
'use server') - ✅ Los datos del estudiante NO se almacenan en Groq
- ✅ Groq usa el modelo en tiempo real sin guardar conversaciones
Causa: La API key no está en .env.local o aún dice tu-api-key-aqui
Solución:
- Verifica que
.env.localtenga la API key real - Reinicia el servidor de desarrollo (
Ctrl+Cypnpm dev)
Causa: Excediste los límites del plan gratuito
Solución:
- Espera 1 minuto antes de intentar otro análisis
- Considera actualizar al plan pago de Groq si necesitas más requests
Causa: El modelo 70B es más lento que los modelos pequeños
Solución:
- Normal: 3-8 segundos para respuestas completas
- Si tarda >15 segundos, verifica tu conexión a internet
- Para pruebas rápidas, usa
llama-3.1-8b-instant
Causa: max_tokens muy bajo o respuesta cortada
Solución:
- Aumenta
max_tokensa3000o4096 - Verifica que el prompt no sea excesivamente largo
- Espera datos suficientes: El análisis es más útil cuando el estudiante tiene al menos 3-5 videos vistos
- No abuses del botón: Genera análisis solo cuando realmente lo necesites (límites de API)
- Revisa el contexto: El LLM analiza basándose en los datos disponibles
- Personaliza el prompt: Edita
buildAnalysisPrompt()para ajustar el estilo del análisis
- Generación de PDF del reporte
- Comparación entre estudiantes del mismo grupo
- Análisis de tendencias temporales
- Recomendaciones de contenido específico
- Exportación a diferentes formatos
- Documentación de Groq
- Modelos disponibles
- Límites y pricing
- Groq Playground (para probar prompts)
¿Problemas? Revisa los logs del servidor o abre un issue en el repositorio.