Perchè la LOCAL GPT è la soluzione ideale per tutte le aziende e la Pubblica amministrazione

Andrea Pili
6 min readJun 28, 2024

--

Era novembre del 2022 quando Openai rilascia il suo GPT3. L’AI generativa così come la conosciamo oggi è diventata accessibile ai più con la semplice intuizione del prompt come interfaccia. Una Input text (del tutto identica a quella di un banale motore di ricerca qualsiasi) che modifica l’interazione uomo macchina e rende possibile “parlare” con una intelligenza artificiale. Dopo pochi mesi, nel marzo 2023 con GPT 4, Openai aveva già più di 100 milioni di utenti. Oggi, sono più di 1,7 Miliardi con un fatturato che si stima in più di 2 miliardi di dollari, raggiungendo una valutazione di circa 90 miliardi di dollari.
Anthropic, suo diretto concorrente non è da meno e punta a raggiungere 850 milioni di dollari di fatturato entro il 2024, e le performance del motore Claude 3 sono addirittura migliori di GPT 4o stesso. Perplexity è una delle startup che fa parte della costellazione della GEN AI, insieme a tante altre che ruotano attorno alla computer vision, generazione di Audio, Immagini e Video, come Leonardo.Ai, HeyGen, Runway ecc…

In tutto questo nuovo ecosistema c’è una base solida che alimenta il tutto. Sono i dati. Grazie a loro, e a quello che è stato fatto dall’umanità digitale negli ultimi 30 anni, oggi è possibile parlare di Gen AI.

Ogni giorno vengono prodotti più di 2,5 miliardi di gigabyte di dati. Si stima in 180 Zettabyte la generazione di dati nel 2025. Una quantità di dimensioni difficilmente immaginabili senza un paragone equivalente.

Certamente. Per dare un’idea della dimensione di 180 zettabyte di dati, possiamo fare un paragone con qualcosa di più familiare. Ecco un esempio che potrebbe aiutare a visualizzare questa enorme quantità di dati:

Immaginiamo di utilizzare i DVD come unità di misura. Un DVD standard a doppio strato può contenere circa 8,5 gigabyte di dati.

Per arrivare a 180 zettabyte, avremmo bisogno di circa 21.176 miliardi di DVD.

Se impilassimo questi DVD uno sopra l’altro, la pila raggiungerebbe un’altezza di circa 25,4 milioni di chilometri, equivalente a circa 66 volte la distanza dalla Terra alla Luna.

In alternativa, se coprissimo la superficie terrestre con questi DVD, potremmo ricoprire l’intera superficie del pianeta circa 42 volte.

Questo esempio dà un’idea della scala veramente immensa di 180 zettabyte di dati. È una quantità di informazioni quasi inimmaginabile con cui abbiamo a che fare nell’era dei big data e dell’intelligenza artificiale.

Capite bene che il valore di questi dati è immenso se solo riuscissimo ad accedervi o semplicemente leggerli e interpretarli in qualche modo. Non basterebbero 1.000.000 di anni per poterlo fare umanamente.

Ecco che l’AI Gen potrà essere la soluzione e l’evoluzione dell’umanità digitale allo stesso tempo.

Le organizzazioni saranno le prime a trovare gli investimenti necessari per poter migliorare i propri processi interni grazie alla Gen AI.

Secondo il rapporto McKinsey “The state of AI in early 2024”, l’IA generativa non è più una novità. Quasi due terzi degli intervistati in un sondaggio riferiscono che le loro organizzazioni utilizzano regolarmente l’IA generativa, quasi il doppio rispetto a dieci mesi fa. Il 40% la usa in più di due funzioni aziendali. Il potenziale della tecnologia non è più in discussione.

Sebbene la maggior parte delle organizzazioni sia ancora nelle fasi iniziali dell’adozione dell’IA generativa, si sta iniziando a capire cosa funziona e cosa no nell’implementazione e nella generazione di valore reale con questa tecnologia.

Un punto chiave emerso è che l’obiettivo di business deve essere primario. Si consiglia alle organizzazioni di identificare le opportunità e le strategie di business più promettenti e poi lavorare a ritroso verso le potenziali applicazioni dell’IA generativa. I leader devono evitare la trappola di perseguire la tecnologia fine a se stessa.

I maggiori benefici andranno a coloro che non hanno paura di pensare in grande. Le organizzazioni leader sono quelle che si concentrano sulla reinvenzione di interi flussi di lavoro con l’IA generativa e analitica, piuttosto che cercare semplicemente di integrare questi strumenti nei loro attuali metodi di lavoro.

Per essere efficaci, i leader devono essere pronti a gestire il cambiamento in ogni fase del processo. Dovrebbero aspettarsi che il cambiamento sia costante: le organizzazioni dovranno progettare un’infrastruttura di IA generativa robusta, economica e scalabile per gli anni a venire.

Sarà necessario coinvolgere leader da tutta l’organizzazione. Realizzare un impatto sul profitto e sulle perdite dall’IA generativa richiede una stretta collaborazione con le risorse umane, la finanza, il legale e il risk management per riaggiustare costantemente le strategie di allocazione delle risorse e le aspettative di produttività.

Nonostante la rapida adozione dell’IA generativa, molte organizzazioni sono ancora in fase di sperimentazione, cercando soluzioni semplici. Circa la metà delle organizzazioni usa modelli di IA generativa preconfezionati anziché soluzioni personalizzate. Questo approccio, comune nelle prime fasi di una nuova tecnologia, non è sostenibile a lungo termine.

Le organizzazioni devono chiedersi cosa le differenzia dalla concorrenza, e la risposta spesso sarà la personalizzazione. Il futuro delle organizzazioni si baserà su una combinazione ben orchestrata di modelli di base, sia preconfezionati che adattati alle esigenze specifiche.

Si sta passando da un approccio binario “costruire vs comprare” a uno di “comprare, costruire e collaborare”. Le organizzazioni di successo creeranno ecosistemi che mescolano modelli proprietari, preconfezionati e open-source.

È importante capire che i modelli di IA generativa rappresentano solo il 15% di una soluzione completa. Per creare valore, le organizzazioni devono avere tutti gli elementi necessari: capacità di reinventare il proprio settore, competenze rilevanti (incluso l’aggiornamento del personale non tecnico), un solido modello operativo e dati proprietari.

Solo quando tutti questi fattori saranno in atto, le organizzazioni potranno sbloccare l’impatto dell’IA generativa e passare dalla sperimentazione all’implementazione su larga scala.

Sempre secondo il rapporto in merito alla IA responsabile, essa deve iniziare fin dal primo giorno, e c’è ancora molto da fare in termini di educazione e azione. Tutto parte dai valori aziendali: le organizzazioni devono stabilire principi chiari per l’applicazione dell’IA generativa e creare delle linee guida per garantirne un’implementazione sicura.

La sicurezza dei dati è fondamentale: i dati e i prompt aziendali devono rimanere all’interno dell’impresa. Questo richiede contratti sicuri con i fornitori di modelli linguistici di grandi dimensioni e di applicazioni, oltre a una formazione robusta per assicurare che i dipendenti comprendano la differenza tra strumenti aziendali e pubblici, evitando la condivisione involontaria di codice o dati proprietari su modelli pubblici.

L’IA responsabile inizia prima della conformità e del monitoraggio. Le organizzazioni leader nell’implementazione dell’IA generativa incorporano pratiche di gestione del rischio nello sviluppo delle loro applicazioni di IA. Ciò include assicurarsi che i team tecnici comprendano le pratiche di rischio e mitigazione.

Le soluzioni di IA generativa sono modelli probabilistici che possono commettere errori o amplificare involontariamente i pregiudizi nei dati di addestramento; quindi, è essenziale testare i modelli prima del loro utilizzo. Senza un approccio di test robusto, è difficile realizzare un’IA responsabile.

Infine, le organizzazioni devono sviluppare un chiaro modello di governance per garantire che le applicazioni di IA generativa si conformino ai principi della propria politica di data governance. I risultati del sondaggio e le conversazioni con i clienti mostrano una crescente consapevolezza dell’IA responsabile e un’urgenza di farla funzionare correttamente. Tuttavia, anche con una comprensione crescente, meno di un quarto degli intervistati riporta di avere un processo chiaro per implementarla.

Sulla base di questo prestigioso Report di McKinesy si evince l’importanza dell’adozione di una infrastruttura che chiamiamo “Local GPT”, ossia un sistema che permetta di interrogare i propri dati tramite prompt in maniera conversazionale senza dover dare i propri dati all’esterno della propria infrastruttura IT. In generale i dati in questo caso non vengono dati a terzi e non vengono utilizzati per l’addestramento di altri modelli se non i propri.

E’ ormai risaputo che l’addestramento fa parte integrante dello sviluppo di un sistema di Local GPT, e così come i grandi modelli hanno ancora imperfezioni che possono essere corrette con l’addestramento in prompt, lo è anche la propria Local GPT, ma con una sostanziale differenza, cioè l’addestramento viene fatto internamente senza rischi di inquinamento e da esperti della materia.

I modelli attualmente disponibili per l’adozione di questa soluzione sono più di 700.000. Hugging Face è il repository di riferimento per la community internazionale degli sviluppatori che lavorano integrando questi sistemi nelle loro piattaforme, scambiandosi le informazioni necessarie per rendere l’ecosistema sempre più performante e sicuro.

Milioni di Local GPT contribuirebbero alla diffusione della conoscenza dell’AI Generativa e alla possibilità di sviluppare sistemi verticalizzati specializzati, ma soprattutto ottimizzati per quello che serve.

L’idea di un’unica intelligenza generativa onnisciente rischierebbe di aumentare i rischi relativi alla sicurezza generale della privacy, ci troveremmo di fronte ad una governance centralizzata dove la conoscenza globale è stata fornita da tutti i nostri dati privati che mai vorremmo che altri ne venissero a conoscenza.

La soluzione c’è e si chiama Local GPT.

--

--

Andrea Pili

Serial Entrepreneur, Angel Investor, Advisor, Mentor, Tech addicted, passionate for ethical skill.