Vai al contenuto
Home » Tecnologia » Intelligenza artificiale » ChatGPT-4o: quali sono le novità?

ChatGPT-4o: quali sono le novità?

OpenAI ha recentemente annunciato il lancio di ChatGPT-4o, una nuova versione avanzata del loro modello di intelligenza artificiale. Questo modello, denominato “omni” (da cui la “o” del nome), è progettato per accettare input in varie forme – testo, audio e immagini – e per restituire output altrettanto diversificati. Una delle caratteristiche distintive di ChatGPT-4o è la sua capacità di riconoscere le emozioni umane dalle espressioni facciali e dalle inflessioni vocali, permettendo risposte più naturali e appropriate in base al contesto emotivo della conversazione.


chatgpt-4o

Il rilascio di ChatGPT-4o ha sorpreso molti, dato che ci si aspettava l’annuncio di un motore di ricerca basato su ChatGPT. Tuttavia, il nuovo modello ha dimostrato di essere una significativa evoluzione rispetto al precedente GPT-4.0 Turbo. ChatGPT-4o è infatti due volte più veloce e più efficiente dal punto di vista energetico, permettendo a OpenAI di ridurre i costi e offrire il servizio gratuitamente a livello globale entro poche settimane.

Durante l’evento di presentazione, Mira Murati, Chief Technology Officer di OpenAI, ha evidenziato le potenzialità della nuova versione. Il modello può rispondere agli input audio in soli 232 millisecondi, con una media di 320 millisecondi, rendendo la conversazione quasi indistinguibile da quella umana. Inoltre, ha una capacità di elaborazione delle richieste cinque volte superiore rispetto alla generazione precedente.


Le nuove funzionalità di ChatGPT-4o sono state dimostrate in una presentazione dettagliata. Il modello è in grado di interpretare espressioni facciali e vocali, adattando di conseguenza le sue risposte. Ad esempio, ChatGPT-4o può aggiungere effetti sonori come risatine o modificare il tono della voce per riflettere meglio le emozioni dell’utente durante una conversazione. Questa capacità di adattamento rende le interazioni con l’AI molto più fluide e naturali.

ChatGPT-4o supporta anche la traduzione in tempo reale in 50 lingue, coprendo così il 97% della popolazione mondiale. Durante la dimostrazione, Murati ha eseguito un test di traduzione in italiano, mostrando la rapidità e l’accuratezza del modello nel gestire diverse lingue. Inoltre, il modello può riconoscere elementi visivi su schermi condivisi o simboli scritti a mano, fornendo soluzioni a problemi come equazioni matematiche.


chatgpt

Nonostante le sue avanzate capacità, ChatGPT-4o solleva anche alcune preoccupazioni riguardo ai possibili usi impropri. OpenAI ha riconosciuto i rischi associati alle modalità audio del modello e ha dichiarato di voler procedere con cautela. Per garantire la sicurezza, inizialmente limiterà le uscite audio a una selezione di voci preimpostate e seguirà rigorose politiche di sicurezza. OpenAI ha inoltre sottolineato di aver condotto una serie di test approfonditi, coinvolgendo 70 esperti esterni, per valutare la sicurezza del modello prima del suo rilascio.

In conclusione, ChatGPT-4o rappresenta un significativo passo avanti nell’interazione uomo-computer, offrendo una maggiore naturalezza nelle conversazioni grazie alla capacità di riconoscere e rispondere alle emozioni umane. Sebbene restino delle sfide da affrontare in termini di sicurezza e uso etico, le potenzialità di questo nuovo modello sono enormi, aprendo la strada a un’ampia gamma di applicazioni future.