OpenAI ha annunciato il rilascio di GPT-4o Mini, un modello più leggero e meno costoso destinato agli sviluppatori. Questo nuovo modello è significativamente più economico rispetto alle versioni full-size e promette di essere più capace di GPT-3.5.
Costruire applicazioni utilizzando i modelli di OpenAI può comportare spese notevoli. Gli sviluppatori che non possono permettersi di sperimentare con questi strumenti rischiano di essere esclusi dal mercato e potrebbero optare per modelli più economici come il Gemini 1.5 Flash di Google o il Claude 3 Haiku di Anthropic. Con l’introduzione di GPT-4o Mini, OpenAI entra finalmente nel mercato dei modelli leggeri.
Olivier Godement, responsabile della piattaforma API, ha dichiarato a The Verge:
Credo che GPT-4o Mini rifletta perfettamente la missione di OpenAI di rendere l’IA più accessibile. Se vogliamo che l’IA benefici ogni angolo del mondo, ogni settore e ogni applicazione, dobbiamo renderla molto più economica.
Da oggi, gli utenti di ChatGPT con piani Free, Plus e Team possono utilizzare GPT-4o Mini al posto di GPT-3.5 Turbo. Gli utenti Enterprise avranno accesso la prossima settimana. Questo significa che GPT-3.5 non sarà più disponibile per gli utenti di ChatGPT, ma rimarrà accessibile agli sviluppatori tramite API fino a un eventuale ritiro futuro.
Capacità e performance del modello
Il nuovo modello leggero supporterà sia il testo che la visione tramite API e presto gestirà tutti gli input e output multimodali come video e audio. Queste capacità potrebbero dare vita ad assistenti virtuali più capaci di comprendere itinerari di viaggio e creare suggerimenti. Tuttavia, il modello è progettato per compiti semplici, quindi non aspettatevi di costruire un Siri economico.
GPT-4o Mini ha raggiunto un punteggio dell’82% nell’esame di Measuring Massive Multitask Language Understanding (MMLU), un benchmark composto da circa 16.000 domande a scelta multipla su 57 materie accademiche. Per confronto, GPT-3.5 ha ottenuto il 70%, GPT-4o l’88,7% e il modello Gemini Ultra di Google ha raggiunto il 90%. I modelli concorrenti Claude 3 Haiku e Gemini 1.5 Flash hanno ottenuto rispettivamente il 75,2% e il 78,9%.
Tuttavia, i ricercatori sono cauti riguardo ai test di benchmark come l’MMLU, poiché la modalità di somministrazione varia leggermente da un’azienda all’altra, rendendo difficile confrontare i punteggi. Inoltre, l’IA potrebbe avere queste risposte nel suo dataset, il che le consentirebbe di “imbrogliare”.
Applicazioni pratiche del modello
Per gli sviluppatori desiderosi di costruire applicazioni IA a basso costo, il lancio di GPT-4o Mini offre un nuovo strumento da aggiungere al proprio inventario. La startup fintech Ramp ha testato il modello per creare uno strumento che estrae i dati delle spese dalle ricevute. Superhuman, un client email, ha utilizzato GPT-4o Mini per creare una funzione di auto-suggerimento per le risposte email.
L’obiettivo è fornire uno strumento leggero e economico per permettere agli sviluppatori di creare tutte quelle app e strumenti che non potevano permettersi di realizzare con modelli più grandi e costosi come GPT-4. Molti sviluppatori si sarebbero rivolti a Claude 3 Haiku o Gemini 1.5 Flash prima di affrontare i costi elevati di calcolo richiesti per eseguire uno dei modelli più robusti.
Allora, perché OpenAI ha impiegato così tanto tempo? Godement ha spiegato quanto segue:
È stata una questione di pura priorità, poiché l’azienda si è concentrata sulla creazione di modelli più grandi e migliori come GPT-4, che ha richiesto molti “sforzi di persone e calcolo. Con il tempo, OpenAI ha notato una crescente richiesta di modelli più piccoli, decidendo così di investire ora le risorse nella costruzione di GPT-4o Mini. Credo che sarà molto popolare. Sia per le app esistenti che utilizzano tutta l’IA di OpenAI, sia per molte app che prima erano escluse dai prezzi.