La tua intelligenza artificiale privata

TuaGPT®
AI on-premise & privacy by design

Piattaforma per aziende che vogliono LLM in LAN senza inviare documenti sensibili al cloud:
client TuaGPT® su Windows e gateway TuaGate® con API compatibili OpenAI, TLS e controllo accessi.

Scorri per saperne di più
Ecosistema
AI locale in azienda,
pronta per la produzione
Infrastruttura 100% locale - dati sulla workstation
Progetto TuaGPT®
Contatta per demo o preventivo
TuaGPT — interfaccia desktop Windows
GDPR by design: documenti e contesto restano nella tua rete —
inferenza locale, latenza ridotta e audit per la conformità.
Sovranità dati
0 componenti
Daniele Radoni — DEV74, progetto TuaGPT®
L’AI del futuro non deve essere un rischio ma uno strumento di crescita sicura.
TuaGPT®
Client Windows & gateway TuaGate®

Stack compatibile:
Ollama · LM Studio · endpoint OpenAI-like

Soluzioni
TuaGPT®
e TuaGate®

Due applicazioni native Windows: il client per chat, RAG, tool e ONNX sul PC utente; il gateway per autenticare le richieste, instradare verso più motori LLM e federare la ricerca senza spostare i vettori.

Architettura TuaGPT Client e gateway TuaGate
Avvio
Dalla LAN
alla prima chat

Client TuaGPT®

Una applicazione studiata per essere tanto affidabile quanto disponibile in ogni momento. Aggiornamenti e impostazioni senza complicazioni per ogni postazione aziendale.

PASSO 1
01 /03

Server & TuaGate®

TuaGate semplifica l'amministrazione IT instradando le richieste tra TuaGPT e i backend LLM in modo sicuro. Garantisce sempre il controllo su chi esegue quali operazioni e quando, assicurando trasparenza ed efficienza nei processi.

PASSO 2
02 /03

Motore LLM

Il server, basato su LM Studio, permette a TuaGate di instradare localmente tutte le richieste di inferenza. In questo modo si garantisce maggiore controllo sulla gestione dei dati e una risposta più rapida grazie all’elaborazione locale.

PASSO 3
03 /03
Perché TuaGate
Prestazioni & Controllo
Routing multi-backend
Latenza in LAN
TLS & JWT
Costi prevedibili
Gateway che scala con te

Fallback tra motori LLM, cache configurabile e streaming SSE:
meno punti fragili e tempi di risposta coerenti per tutti i client.

Qualità opzionale lato server

Power Sampling e Self-Consistency migliorano la coerenza quando non sei in streaming continuo; insieme alla cache riducono risposte incoerenti e carico ripetuto sul backend.

Scudo con marchio TuaGate: protezione gateway e sicurezza operativa
Sicurezza operativa

HTTPS gestibile da UI, hash password, token con scadenza, licenze con feature flag e log delle richieste: meno superficie d’attacco e conformità più semplice da dimostrare.

TuaGPT + TuaGate

Il client cura UX, RAG ed export; il gateway uniforma API e policy. Stesso contratto OpenAI-like per collegare anche altri tool compatibili alla tua infrastruttura.

Funzionalità
Client & Gateway
TuaGPT: chat & tool

Conversazioni normali ed effimere, gruppi, statistiche token, QueryBoost, streaming. Tool LLM per ricerca web, filesystem e — dove configurato — integrazione con Thunderbird.

RAG & ONNX sul PC

Indicizzazione documenti con chunking, embeddings ONNX, SQLite locale, OCR su immagini, ricerca semantica e unificata; crittografia database opzionale.

Output professionale

Markdown, LaTeX, temi chiaro/scuro, font configurabili; export in PDF, Word, ODT, JSON e altri formati per archiviare e condividere il lavoro.

TuaGPT
TuaGate: API unificate

Endpoint compatibili OpenAI con più path alias; aggregazione modelli da tutti i backend; filtro opzionale sugli embedding in elenco modelli.

Prestazioni & resilienza

Streaming SSE, priorità e fallback tra server LLM, cache con TTL ed eviction, Power Sampling e Self-Consistency per migliorare la qualità quando appropriato.

Multi-utente & sharing

Gestione utenti, token Bearer, HTTPS, log richieste; registry RAG distribuito con callback verso i client così i vettori non lasciano la postazione proprietaria.

Stack
Motori & Standard Aperti
Ollama, LM Studio e altri endpoint con API tipo OpenAI; client .NET 8 su Windows; estensioni browser per la ricerca web reale; stesso protocollo che già usano molti tool del mondo LLM.
Scopri di più
Architettura
I pilastri del
sistema
TuaGate®
Gateway API, JWT, multi-backend, cache, sharing registry
LM Studio / Ollama
Motore inferenza locale sulla LAN; API verso i modelli caricati
Estensione Chrome
Ricerca web profonda e contesto dal browser verso TuaGPT
Estensione Thunderbird
Tool per leggere e gestire la posta tramite LLM (dove abilitato)
In sintesi
Locale,
misurabile,
sotto controllo
Inferenza in LAN riduce dipendenza dalla rete pubblica; il gateway centralizza policy e log mentre ogni postazione conserva i propri documenti indicizzati.
DATI IN SEDE
100 %
API OPENAI-LIKE
1 hub
PORTA GATEWAY (ESEMPIO)
5000
Roadmap & release
TuaGPT 1.2.6.x
Tool Thunderbird, prompt wizard ricerca unificata, fix selettore modelli
/ 03·2026
TuaGPT 1.2.4.x
Crittografia database, annotazioni chat, ordinamento elenco
/ 03·2026
Estensione Chrome
Pubblicata sul Chrome Web Store; ricerca web profonda
/ 2026
Prossimi passi
Stable Diffusion 1.5, UI dark, voice I/O, OpenClaw scheduling
/ roadmap
Licenze & acquisto
Soluzioni modulari
preventivo su misura
contattaci per quote e demo.
Workstation
TuaGPT® Client

Su preventivo

/ licenza
Richiedi informazioni
Ideale per
Professionisti e team che vogliono un client completo su Windows con RAG locale, tool e integrazioni desktop.
  • Aggiornamenti tramite launcher dedicato
  • Attivazione legata al dispositivo (policy commerciale)
  • Connessione a gateway TuaGate o endpoint diretti
  • Lingua italiana nell’interfaccia
Azienda
TuaGate® + più postazioni

Su progetto

/ infrastruttura
Contattaci
Include tipicamente
Gateway centralizzato, multi-backend, licenze con feature flag, servizio Windows opzionale e supporto per rollout in LAN.
  • JWT, HTTPS, log e profili configurazione
  • Condivisione on-demand e discovery risorse
  • Ottimizzazioni qualità e cache lato server
  • Allineamento a roadmap TuaGPT / TuaGate
FAQ
Domande
frequenti
No. TuaGPT è il client che dialoga con questi backend tramite API compatibili OpenAI. Il modello resta sul motore che scegli (Ollama, LM Studio, cloud, ecc.).
Sì: l’indicizzazione avviene nel database locale dell’applicazione. In modalità condivisione con TuaGate non vengono caricati i vettori sul gateway; circolano metadati e risultati di ricerca pertinenti.
TuaGate è il server gateway (API, amministrazione, multi-backend, sharing). TuaGPT è il client desktop per chat, RAG, ONNX, estensioni e export. L’interfaccia chat per l’utente finale è su TuaGPT.
No per chat con modelli locali e per molte funzioni ONNX. Sì se usi API cloud, aggiornamenti, alcuni scenari con TuaGate o la ricerca web. L’inferenza in LAN riduce la dipendenza dalla connessione esterna.
Messaggio inviato. Grazie per averci contattato: ti risponderemo al più presto all’indirizzo indicato.

Preferisci prenotare una call o demo live senza form? Apri la pagina di prenotazione Google e scegli lo slot.

Richiedi informazioni o una Demo senza impegno