Ein souveräner, modularer und ethisch gesteuerter KI-Agent, der für den Offline-First-Betrieb konzipiert ist. VisionGPTi ist die Referenzimplementierung des Genesis SML-Ökosystems und wird durch den NovaQCore, einen manifest-basierten Ethik-Kernel, geleitet.
Das Ziel dieses Projekts ist die Schaffung eines Werkzeugs der Ermächtigung. VisionGPTi soll als autarke, dezentrale KI-Plattform dienen, die dem Nutzer die volle Kontrolle über seine Daten und die KI-Prozesse zurückgibt und gleichzeitig als "Mobiles Klassenzimmer" in bildungsschwachen Regionen eingesetzt werden kann.
- Zwei Betriebsmodi:
- Autonomer Modus: Der Agent verfolgt selbstständig hochrangige Ziele, verfeinert diese und generiert eigene Forschungsfragen.
- Aufgaben-gesteuerter Modus: Der Agent arbeitet eine vordefinierte Liste von Themen aus einer Textdatei ab.
- Hybrider Betrieb: Der Agent arbeitet primär offline mit seinem lokalen Gedächtnis, kann aber bei Bedarf auf ein Web-Recherche-Modul zugreifen, um neue Informationen zu sammeln.
- Lokales Ökosystem: Nutzt ausschließlich lokale und Open-Source-Komponenten für maximale Datensouveränität (Ollama, ChromaDB).
- Ethische Leitplanken: Jede generierte Antwort wird gegen ein anpassbares Set ethischer Regeln geprüft.
- Modulare SML-Architektur: Kernfunktionen wie Webrecherche sind als austauschbare "Sovereign Machine Learning" (SML)-Module konzipiert.
- Sprache: Python 3.9+
- LLM-Runner: Ollama (z.B. mit
gemma:2b
,llama3:8b
, etc.) - Vektor-Datenbank (Gedächtnis): ChromaDB
- Embedding-Modelle: SentenceTransformers
- Vision-Modelle: Transformers (CLIP)
- Web-Scraping: DDGS, Requests, BeautifulSoup4
/
├── .venv/ \# Virtuelle Python-Umgebung
├── chroma\_db/ \# Lokale Vektor-Datenbank (Memory Alpha)
├── recherche\_quellen/ \# (Optional) Ordner für manuelle Wissens-Dateien
├── themen\_liste.txt \# Aufgabenliste für den 'task'-Modus
├── vision\_gpti\_agent.py \# Das Hauptskript des Agenten
├── inspect\_db.py \# Werkzeug zum Einsehen der Datenbank
├── LICENSE \# AGPL-3.0 Lizenz
└── README.md \# Diese Datei
git clone <deine-repo-url>
cd <dein-repo-name>
Es wird dringend empfohlen, eine virtuelle Umgebung zu verwenden.
# venv erstellen (nur einmal)
python -m venv .venv
# venv aktivieren (jedes Mal, wenn du ein neues Terminal öffnest)
.\.venv\Scripts\Activate.ps1
Falls bei der Aktivierung ein Fehler auftritt, erlaube Skripte für diese Sitzung mit:
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope Process
python -m pip install -r requirements.txt
(Hinweis: Du musst noch eine requirements.txt
-Datei mit allen Paketen erstellen. Nutze dazu bei aktiver venv den Befehl python -m pip freeze > requirements.txt
)
Stelle sicher, dass Ollama installiert ist und das gewünschte Modell heruntergeladen wurde.
ollama run gemma:2b
Der Agent kann über Kommandozeilen-Argumente in verschiedenen Modi gestartet werden.
Der Agent arbeitet die Themen aus der themen_liste.txt
ab.
python vision_gpti_agent.py --mode task
Die Ergebnisse werden in die Datei recherche_ergebnisse.txt
geschrieben.
Der Agent versucht, sein INITIAL_OBJECTIVE
selbstständig zu verfolgen.
python vision_gpti_agent.py --mode autonomous
Wir sind ein Projekt, das von der Gemeinschaft lebt. Deine Mitwirkung ist entscheidend, um unsere Mission voranzutreiben.
- Code beitragen: Siehe unsere CONTRIBUTING.md Datei, um zu erfahren, wie du Pull Requests einreichen kannst.
- Verhaltenskodex: Wir verpflichten uns zu einem positiven und inklusiven Umfeld. Lies unseren CODE_OF_CONDUCT.md.
- Sicherheit melden: Wenn du eine Sicherheitslücke findest, melde sie bitte vertraulich. Informationen dazu findest du in SECURITY.md.
- Support & Fragen: Für allgemeine Anfragen und Support, lies unsere SUPPORT.md Datei.
Dieses Projekt ist unter der AGPL-3.0 lizenziert. Weitere Details findest du in der LICENSE.md Datei.