È del 21 Marzo il tweet di Google che ufficializza il lancio di Bard, l’AI che promette di dare battaglia a ChatGPT.
Today we’re starting to open up access to Bard, our early experiment that lets you collaborate with generative AI. You can use Bard to boost your productivity, accelerate your ideas and fuel your curiosity. Learn more, including how to sign up ↓ https://t.co/4zDI5RD1fr
— Google (@Google) March 21, 2023
Sono giorni di hype e un vero e proprio isterismo collettivo attorno a ChatGPT e all’intelligenza artificiale. È di ieri (1 Aprile, e non è un pesce d’Aprile!) la notizia che il Garante per la privacy ha bloccato l’utilizzo di ChatGPT in Italia per “raccolta illecita di dati personali e assenza di sistemi per la verifica dell’età dei minori”.
A poco più di 4 mesi dal lancio ufficiale di ChatGpt e dalla sua adozione di massa a livello internazionale, pensa che nei primi 5 giorni dal suo lancio è stato utilizzato da 1 milione di persone, non mancano dubbi e interrogativi sull’utilizzo e sulle sue implicazioni.
In un video di Matteo Flora, Professore (a.c.) in Corporate Reputation & Business Storytelling, CyberSecurity ed in Data Driven Strategies, abbiamo potuto vedere come sia “facile” far esprimere a ChatGPT parole o testi che possano incitare all’odio, al razzismo, semplicemente utilizzando i prompt (comandi) giusti.
Puoi vedere la chiacchierata di Matteo Flora con ChatGPT in questo video.
Ma torniamo alla notizia principale: Google lancia BARD, l’intelligenza artificiale che promette di dare battaglia a ChatGPT, ma per il momento non è ancora accessibile dall’Italia (mi sono iscritto alla lista d’attesa 10 giorni fà e sto aspettando di avere l’accesso).
Cos’è BARD?
Prima di approfondire la conoscenza di Bard devo dire che lo sviluppo di un’intelligenza artificiale conversazionale da parte di Google non è di certo una novità per il gigante di Mountain View.
“Da tempo – dicono i creatori di Bard – vediamo il potenziale per rendere le informazioni e l’informatica molto più accessibili attraverso l’intelligenza artificiale conversazionale. Due anni fa abbiamo presentato LaMDA (Language Model for Dialogue Applications), un modello di IA conversazionale in grado di dialogare in modo fluido e multi-direzionale, e l’anno scorso abbiamo lanciato l’AI Test Kitchen, un nuovo spazio in cui le persone potevano conoscere, sperimentare e fornire feedback su LaMDA.”
Bard è un esperimento basato su questa stessa tecnologia che consente di collaborare con l’intelligenza artificiale generativa. Come collaboratore creativo e utile, Bard può potenziare la nostra immaginazione, aumentare la nostra produttività e aiutarci a dare vita alle nostre idee, in tutti i campi di applicazione che riguardano la nostra vita personale e professionale.
Bard fornisce risposte accurate?
Bard è un sistema sperimentale e alcune risposte potrebbero essere imprecise e che grazie al Machine Learning impara dagli errori e dai feedback che ricevere dagli utilizzatori, migliorerà giorno dopo giorno. Prima del suo lancio ufficiale migliaia di tester sono stati coinvolti per fornire un feedback che aiutasse Bard a migliorare la sua qualità, sicurezza e accuratezza.
Tutto questo è davvero straordinario, ma siamo ancora agli inizi e Bard è, per il momento, un esperimento. Sebbene Bard disponga di controlli di sicurezza integrati e di chiari meccanismi di feedback in linea con i principi dell’IA di Google, è bene tenere presente che potremmo visualizzare informazioni imprecise o dichiarazioni offensive (vedi il video di Matteo Flora sopra indicato).
Come e quando Bard cita le fonti nelle sue risposte?
Bard ha lo scopo di generare contenuti originali e non di replicare a lungo contenuti già esistenti. “Abbiamo progettato i nostri sistemi – dicono da Google – per limitare le possibilità che ciò accada e continueremo a migliorare il funzionamento di questi sistemi”. Se Bard cita direttamente e per esteso una pagina web, cita quella pagina.
Bard è in grado di spiegare come funziona?
Le esperienze di LLM (come quella di Bard) possono “avere allucinazioni” e presentare informazioni inesatte come reali. Ad esempio Bard spesso travisa il suo funzionamento. Lo si vede in diversi casi, ad esempio, in risposta a domande su come è stato formato o su come svolge le sue funzioni.
Le risposte di Bard possono anche occasionalmente affermare di utilizzare informazioni personali provenienti da Gmail o da altre applicazioni e servizi privati. Questo non è esatto – dicono da Google – e, in quanto interfaccia di un LLM, Bard non ha la possibilità di determinare questi fatti.
Google chiede il supporto degli utenti nel segnalare contenuti non esatti cliccando sul “pollice in giù” quando si riscontrano risposte o informazioni non esatte, permettendo a Bard di imparare dai propri errori e di migliorarsi.
Bard può supportarti nel coding?
A differenza di ChatGPT, Bard non può ancora darci supporto nelle attività di coding. È in fase di addestramento.
Quali dati vengono raccolti da Google? Come vengono utilizzati?
Quando interagiamo con Bard, Google raccoglie le nostre conversazioni, la nostra posizione in base al vostro indirizzo IP (per saperne di più), il nostro feedback e le informazioni sull’utilizzo. Questi dati aiutano Google a fornire, migliorare e sviluppare prodotti, servizi e le tecnologie di apprendimento automatico di Google, come spiegato nell’Informativa sulla privacy di Google.
Se vuoi conoscere i principi di Google sulla privacy.
Ho cercato di raccogliere le informazioni più importanti, le prime disponibili, su Bard. Sicuramente seguiranno novità nelle prossime settimane. Appena ne avrò la possibilità di testarlo in prima persona, sarò ben felice di condividerle con te.
Qui puoi vedere un video di Raffaele Gaito, Growth Coach, che da residente londinese, ha avuto la possibilità di accedere a Bard e testarlo.
E tu hai avuto l’occasione di sperimentare Bard, l’AI di Google o ChatGPT?
Raccontalo nei commenti.