È disponibile per tutti da ieri Google Bard, la risposta targata Google a ChatGPT.
Il servizio chatbot, basato sulla tecnologia di AI generativa, finora era utilizzabile solo da una ristretta cerchia di utenti che avevano aderito a una lista d’attesa. Oggi, invece, è disponibile in ben 180 Paesi, anche se le interrogazioni (prompt) possono avvenire solo in inglese. Tuttavia, è previsto a breve – si parla di qualche mese – il supporto della lingua italiana.
Google Bard: testo e immagini
La casa di Mountain View ha di recente svelato le principali caratteristiche del modello linguistico generativo proprietario PaLM 2, la tecnologia alla base di Bard.
Grazie alla partnership siglata con Adobe, per l’accesso alla tecnologia Firefly, Bard sarà presto in grado di creare immagini AI a partire da una descrizione (prompt) di tipo testuale, analogamente a quel che fanno i già noti DALL-E 2 e Midjourney.
In virtù dell’integrazione con Google Lens, oggi il chatbot Google accetta come input anche le immagini e fornisce non solo risposte di tipo testuale ma risultati diversi, sotto forma ad esempio di tabelle e mappe (come quelle di Google Maps).
Per gli utenti business, Google ha annunciato l’estensione delle funzionalità “generative” dello strumento di collaboration Duet AI for Workspace, che aiuteranno a visualizzare, organizzare e ottimizzare i flussi di lavoro.
Microsoft Bing GPT-4 e le ricerche multimodali
L’annuncio di Google segue di pochi giorni quello della disponibilità diffusa di uno strumento simile, Bing GPT-4.
La tecnologia di intelligenza artificiale di casa Microsoft, da poco meno di una settimana è aperta a tutti gli utenti, dopo essere stata oggetto di sperimentazioni, anche in questo caso, da parte di una lista ristretta di utenti.
L’unico vincolo per accedere all’anteprima open di Bing GPT 4 è di farlo attraverso un account Microsoft e utilizzando il browser Edge.
Il servizio impiega la tecnologia di elaborazione del linguaggio naturale (NLP) e oggi non si limita più a fornire risposte di tipo testuale. L’output dell’interrogazione può, infatti, essere un video o un’immagine (non solo quelli generati dall’AI), come pure una tabella o un grafico complesso.
Presto, assicurano i vertici della società, Bing GPT-4 supporterà anche le ricerche multimodali. Gli utenti saranno, infatti, in grado di interagire con il sistema attraverso diverse tipologie di dati – non solo testo ma anche immagini, video o suoni.
Amazon Bedrock, focus sulla tutela dei dati degli utenti
Nella singolar tenzone, ad aprile si è inserita anche Amazon con il suo Bedrock, una piattaforma che permette alle aziende di sfruttare modelli linguistici differenti (quelli delle startup AI21, Stability AI e Anthropic) per realizzare chatbot.
Amazon mette a disposizione degli utenti le tecnologie Titan Text, che genera una risposta testuale a partire da una richiesta; Stable Diffusion, un modello AI per la generazione di immagini, e Text Embeddings, che crea modelli matematici di un testo utilizzabili per attività di ricerca semantica e traduzione.
Secondo i vertici della casa di Seattle, le aziende potranno personalizzare i modelli linguistici con i propri dati e Amazon si impegnerà a non utilizzarli per addestrare gli algoritmi – una delle maggiori preoccupazioni, questa, per le organizzazioni che si approcciano all’AI generativa, in particolare per quelle che processano informazioni sensibili come gli operatori della sanità o dei servizi finanziari.