Este repositorio contiene un prototipo de extensión de Chrome que usa un LLM (ej. ChatGPT) para detectar:
- FUD (fear, uncertainty, doubt)
- Afirmaciones no verificadas / datos inciertos
- Marketing presentado como evidencia científica
- Pseudociencia y falacias comunes
- Sesgos y conflictos de interés
- manifest.json — Declaración de la extensión
- background.js — Service worker que orquesta llamadas a la API
- content.js — Extrae texto y presenta anotaciones
- popup.html / popup.js / styles.css — Interfaz de usuario para configurar API key/backend
- Guarda los archivos en una carpeta (por ejemplo
chrome-fud-detector). - Abre Chrome > Extensions > Developer mode
- Carga la carpeta como "unpacked extension".
- Abre el popup y configura
backendUrl(recomendado) o pega tu API key (riesgoso). - Navega a cualquier página y espera ~1s para que se ejecute el escaneo.
- No se recomienda poner tu API key directamente en la extensión; cualquiera con acceso a tu navegador puede extraerla.
- Recomendación: desplegar un backend propio que contenga la API key y reciba peticiones desde la extensión. Ese backend puede implementar límites, caching y anonimización (extraer solo fragmentos relevantes).
El servicio manda al LLM un prompt estructurado que solicita JSON con campos: summary, scores (0-1), highlights (fragmentos), explainers (por cada tipo detectado), overall_warning.
Ejemplo de prompt (simplificado):
Eres un asistente crítico... Analiza el texto y devuelve JSON con: {"summary":"...","scores":{"fud":..},"highlights":[...]}
- Detectar "pseudociencia" automáticamente es difícil: la extensión debe complementar con listas de verificación humanas (¿hay fuentes? ¿estudios replicados? ¿conflicto de interés?).
- El highlighting en el DOM es "naive" y puede romper páginas complejas. Para producción deberías usar Range/TreeWalker y no sobrescribir innerHTML.
- Costos: llamar al LLM frecuentemente puede ser costoso — implementa caching y límites por dominio.
- Implementar un backend con rate-limiting y caching.
- Mejorar extracción de texto (usar heurísticas para distinguir contenido principal vs. chrome-like UI)
- Añadir calibración: el usuario puede marcar falsos positivos/negativos y recopilar un dataset para ajuste fino.
- Integrar listas confiables de verificación (Snopes, PubMed, CrossRef) para verificaciones automáticas.
MIT