Alla pari di tutte le grandi del settore tecnologico, anche Google sta investendo tempo e denaro sull’intelligenza artificiale che si sta concretizzando con Gemini, nello sterminato ecosistema software del colosso di Mountain View, e con l’accoppiata AI Overview/AI Mode nel mondo della ricerca.

Nonostante l’IA sia in grado di sorprenderci in positivo per certi aspetti, ce ne sono molti altri che risultano piuttosto “buffi” e dimostrano quanta strada ci sia ancora da fare nello sviluppo prima di poterla effettivamente definire intelligenza.

Segui Google Italia su Telegram, ricevi news e offerte per primo

Offerte Bomba!

Solo errori di prezzo o sconti incredibili ma verificati!

AI Overview di ricerca Google mostra i suoi limiti

A fine marzo, Google ha portato in Italia la funzionalità AI Overview, integrata nella ricerca Google e basata ovviamente sull’intelligenza artificiale, utile per fornire agli utenti risposte più complete e articolate rispetto ai semplici risultati di ricerca (che vengono comunque mostrati sotto).

Allo stato attuale, prendere come oro colato tutto ciò che viene suggerito da AI Overview potrebbe essere un grosso errore, specie considerando che è possibile ingannare la “intelligenza” artificiale che sta alla base della funzionalità in maniera molto semplice.

Alcuni utenti hanno infatti digitato nella casella di ricerca alcuni proverbi completamente inventati, chiedendone il significato. L’IA non ha fatto un passo indietro, andando a verificare preventivamente l’esistenza di queste espressioni, limitandosi a inventare di sana pianta il significato.

Le allucinazioni dell’intelligenza artificiale

L’utente @gregjenner su Bluesky ha chiesto il significato del modo di dire “Non puoi leccare un tasso due volte“. AI Overview ha spiegato che questo detto vuole dirci che non puoi ingannare o imbrogliare qualcuno una seconda volta dopo che è stato ingannato una volta.

I colleghi di Engadget, che hanno fatto molti altri tentativi ricevendo sempre e comunque risposte piuttosto fantasiose, definiscono queste come le allucinazioni dell’intelligenza artificiale.

Se qualcuno si basasse su quanto fornito in risposta da un’IA senza verificarne la veridicità (dando per scontato il tutto) potrebbe finire nei guai: un esempio del genere è già avvenuto nel 2023, quando due avvocati sono stati multati di 5.000 dollari per aver sfruttato ChatGPT nella causa di un cliente, sfruttando una risposta del chatbot che ha generato dei casi inesistenti citati dai due.