Skip to content

canberkdumann/Think_AI_Main

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Think AI: Otonom Akıl Yürütme Motoru

Python AI License

Think AI: Veri gizliliği odaklı otonom akıl yürütme motoru. İki farklı yapay zeka modelinin (LLM) birbirini sürekli denetleyerek en doğru sonucu ürettiği bu mimari, verilerinizi tamamen yerel bellekte izole eder. Docker konteyner mimarisi, Redis önbellek sistemi ve yerleşik Kişisel Veri (PII) koruma kalkanı ile canlı kullanıma hazır, profesyonel bir altyapı sunar.


Projenin Amacı

Standart dil modelleri, karmaşık mantık yürütme süreçlerinde hatalı bilgi üretmeye meyilli olabilir. Think AI, bu sorunu BinaryMind Mimarisi ile minimize etmeyi hedefler. Sistem, tek bir modelin çıktısını doğrudan kullanıcıya sunmak yerine, iki farklı modelin "tez-antitez" prensibiyle çalışmasını sağlar:

  1. Analist (Qwen 2.5): Veriyi toplar, internet kaynaklarını tarar ve bir çözüm önerisi sunar.
  2. Eleştirmen (Gemma 2): Sunulan çözümü mantıksal açıdan denetler, eksikleri tespit eder ve bir doğruluk payı belirler.
  3. Sentez: Kullanıcıya, bu iki modelin konsensüsü ile oluşturulmuş, rafine edilmiş sonuç sunulur.

Bu yaklaşım, özellikle teknik analiz, kod incelemesi ve araştırma gibi doğruluk gerektiren görevlerde daha güvenilir sonuçlar elde edilmesini sağlar.


Temel Özellikler

  • Multi-Agent Orkestrasyonu: Qwen ve Gemma modelleri asenkron olarak çalışır. Bir model üretirken diğeri denetleme mekanizması olarak görev yapar.
  • Canlı Güven Skoru: Modeller arasındaki anlaşmazlık veya uyum seviyesi, arayüz üzerinde dinamik bir bar ile görselleştirilir. Bu sayede yapay zekanın cevabına ne kadar güvendiğini şeffaf bir şekilde görebilirsiniz.
  • Real-Time RAG: DuckDuckGo entegrasyonu sayesinde modeller sadece eğitim verilerine bağlı kalmaz, güncel internet verilerini de analizlerine dahil eder.
  • Semantik Hafıza: Sistem, geçmiş konuşmaları vektör tabanlı olarak saklar ve bağlamı koruyarak daha tutarlı cevaplar üretir.
  • Profesyonel Raporlama: Analiz süreci ve sonuçları, kurumsal kullanıma uygun Markdown (.md) formatında rapor olarak dışa aktarılabilir.
  • Gizlilik Odaklı: Ollama altyapısı sayesinde tüm veriler ve işlem gücü yerel makinenizde kalır; buluta veri gönderilmez.
  • Docker Containerization: Tüm sistem container'larda izole çalışır. Tek komutla kurulum, cross-platform uyumluluk ve production-ready deployment.
  • Redis Cache: Tekrar eden sorular anında yanıtlanır. %88 cache hit rate ile 35x performans artışı sağlanmıştır.
  • PII Güvenlik: Hassas veriler (email, telefon, TC kimlik) otomatik olarak maskelenir.
think ai security 1 think ai security 2

Kullanılan Teknolojiler

Proje, modern ve ölçeklenebilir bir teknoloji yığını üzerine inşa edilmiştir:

  • Core: Python 3.x, Asyncio (Asenkron Mimari)
  • LLM Runtime: Ollama (Localhost)
  • Modeller: Qwen 2.5 (Analist) & Gemma 2 (Eleştirmen)
  • AI & NLP: PyTorch, Scikit-learn
  • Arayüz: Gradio
  • Arama & RAG: DuckDuckGo Search, Sentence Transformers, NumPy
  • Container: Docker
  • Cache: Redis 7

think ai 1 think ai 2

Kurulum

Projeyi yerel makinenizde çalıştırmak için aşağıdaki adımları izleyin.

1. Gereksinimler

  • Docker Desktop kurulu olmalıdır
  • minimum 16 GB RAM önerilir
  • 15 GB boş disk alanı

2. Hızlı Kurulum

Windows:

git clone https://github.com/KULLANICI_ADINIZ/Think_AI_Main.git
cd Think_AI_Main
.\start.ps1

Linux/Mac:

git clone https://github.com/KULLANICI_ADINIZ/Think_AI_Main.git
cd Think_AI_Main
chmod +x start.sh
./start.sh

İlk çalıştırmada modeller otomatik indirilir (10-15 dakika).

3. Kullanım

Tarayıcınızda açın:

http://localhost:7860