Think AI: Veri gizliliği odaklı otonom akıl yürütme motoru. İki farklı yapay zeka modelinin (LLM) birbirini sürekli denetleyerek en doğru sonucu ürettiği bu mimari, verilerinizi tamamen yerel bellekte izole eder. Docker konteyner mimarisi, Redis önbellek sistemi ve yerleşik Kişisel Veri (PII) koruma kalkanı ile canlı kullanıma hazır, profesyonel bir altyapı sunar.
Standart dil modelleri, karmaşık mantık yürütme süreçlerinde hatalı bilgi üretmeye meyilli olabilir. Think AI, bu sorunu BinaryMind Mimarisi ile minimize etmeyi hedefler. Sistem, tek bir modelin çıktısını doğrudan kullanıcıya sunmak yerine, iki farklı modelin "tez-antitez" prensibiyle çalışmasını sağlar:
- Analist (Qwen 2.5): Veriyi toplar, internet kaynaklarını tarar ve bir çözüm önerisi sunar.
- Eleştirmen (Gemma 2): Sunulan çözümü mantıksal açıdan denetler, eksikleri tespit eder ve bir doğruluk payı belirler.
- Sentez: Kullanıcıya, bu iki modelin konsensüsü ile oluşturulmuş, rafine edilmiş sonuç sunulur.
Bu yaklaşım, özellikle teknik analiz, kod incelemesi ve araştırma gibi doğruluk gerektiren görevlerde daha güvenilir sonuçlar elde edilmesini sağlar.
- Multi-Agent Orkestrasyonu: Qwen ve Gemma modelleri asenkron olarak çalışır. Bir model üretirken diğeri denetleme mekanizması olarak görev yapar.
- Canlı Güven Skoru: Modeller arasındaki anlaşmazlık veya uyum seviyesi, arayüz üzerinde dinamik bir bar ile görselleştirilir. Bu sayede yapay zekanın cevabına ne kadar güvendiğini şeffaf bir şekilde görebilirsiniz.
- Real-Time RAG: DuckDuckGo entegrasyonu sayesinde modeller sadece eğitim verilerine bağlı kalmaz, güncel internet verilerini de analizlerine dahil eder.
- Semantik Hafıza: Sistem, geçmiş konuşmaları vektör tabanlı olarak saklar ve bağlamı koruyarak daha tutarlı cevaplar üretir.
- Profesyonel Raporlama: Analiz süreci ve sonuçları, kurumsal kullanıma uygun Markdown (.md) formatında rapor olarak dışa aktarılabilir.
- Gizlilik Odaklı: Ollama altyapısı sayesinde tüm veriler ve işlem gücü yerel makinenizde kalır; buluta veri gönderilmez.
- Docker Containerization: Tüm sistem container'larda izole çalışır. Tek komutla kurulum, cross-platform uyumluluk ve production-ready deployment.
- Redis Cache: Tekrar eden sorular anında yanıtlanır. %88 cache hit rate ile 35x performans artışı sağlanmıştır.
- PII Güvenlik: Hassas veriler (email, telefon, TC kimlik) otomatik olarak maskelenir.
Proje, modern ve ölçeklenebilir bir teknoloji yığını üzerine inşa edilmiştir:
- Core: Python 3.x, Asyncio (Asenkron Mimari)
- LLM Runtime: Ollama (Localhost)
- Modeller: Qwen 2.5 (Analist) & Gemma 2 (Eleştirmen)
- AI & NLP: PyTorch, Scikit-learn
- Arayüz: Gradio
- Arama & RAG: DuckDuckGo Search, Sentence Transformers, NumPy
- Container: Docker
- Cache: Redis 7
Projeyi yerel makinenizde çalıştırmak için aşağıdaki adımları izleyin.
- Docker Desktop kurulu olmalıdır
- minimum 16 GB RAM önerilir
- 15 GB boş disk alanı
Windows:
git clone https://github.com/KULLANICI_ADINIZ/Think_AI_Main.git
cd Think_AI_Main
.\start.ps1Linux/Mac:
git clone https://github.com/KULLANICI_ADINIZ/Think_AI_Main.git
cd Think_AI_Main
chmod +x start.sh
./start.shİlk çalıştırmada modeller otomatik indirilir (10-15 dakika).
Tarayıcınızda açın:
http://localhost:7860