Redazione di Hardware Upg
23-12-2024, 07:04
Link alla notizia: https://www.hwupgrade.it/news/scienza-tecnologia/o3-e-o3-mini-i-nuovi-modelli-di-openai-che-ragionano-arrivano-a-gennaio_134054.html
OpenAI svela i modelli di intelligenza artificiale di nuova generazione, o3 e o3-mini, che promettono prestazioni eccezionali in matematica, programmazione e ragionamento scientifico. Un salto qualitativo nell'IA che potrebbe rivoluzionare diversi settori
Click sul link per visualizzare la notizia.
In altre parole hanno un inference engine migliorato, ma questo aumenta il carico computazionale durante l'utilizzo al punto da dover offrire opzioni di utilizzo differenziate.
Da un lato è un passo in avanti, dall'altro questo alza i costi di utilizzo.
La velocità dei progressi è inquietante
https://x.com/ai_for_success/status/1870324746560168290
https://x.com/ai_for_success/status/1870449268575916531
TorettoMilano
23-12-2024, 10:44
La velocità dei progressi è inquietante
https://x.com/ai_for_success/status/1870324746560168290
https://x.com/ai_for_success/status/1870449268575916531
pure i "text-to-video" mi pare di capire ormai siano difficili da distinguire dalla realtà
La velocità dei progressi è inquietante
https://x.com/ai_for_success/status/1870324746560168290
https://x.com/ai_for_success/status/1870449268575916531
Francamente non sono impressionato, per il semplice motivo che hanno fondamentalmente aggiunto dei solver all'inference engine, ma quelli sono tecnologia nota da ben prima dei LLM, già utilizzata nei software basati su LLM utilizzati per la progettazione (roba "serie" non fuffa-GPT per le masse) e non cambiano il fatto che OpenAI stia ancora usando il modello di GPT-4 (uscito nel marzo 2023) mentre in precedenza avevano annunciato che GPT-5 sarebbe uscito a metà 2024.
A questo punto è ovvio che c'è un problema, probabilmente legato alla riduzione di nuovi dati di buona qualità utilizzabili per modelli più grandi e dall' "autoavvelenamento" dei dati di training prodotto dai contenuti generati da LLM che circolano su internet, autoavvelenamento esacerbato da chi è nello specifico che usa gli LLM per generare contenuti (spam, chatbot per vari usi ed abusi, astroturfing in generale, ecc. ecc.).
A proposito di questo, date un occhiata qui:
https://www.fudzilla.com/news/ai/60282-openai-s-gpt-5-project-stumbles
A core issue for Orion is data scarcity. OpenAI's researchers concluded that the public internet no longer provides the high-quality, diverse datasets needed for the model's development. To address this, the company has turned to generating synthetic data, hiring software engineers, mathematicians, and theoretical physicists to create original content.
These experts write software code, solve mathematical problems, and provide detailed explanations of their reasoning, offering Orion a deeper understanding of complex topics. But the process is labor-intensive and slow.
While GPT-4 was trained on approximately 13 trillion tokens, a team of 1,000 people producing 5,000 words daily would take months to generate just a billion tokens.
Non so voi, ma io personalmente sarei più interessato ad avere un motore di ricerca "classico" con accesso a quei "dati di alta qualità" piuttosto che passare attraverso GPT-5. ;)
GPT-5: più posti di lavoro da mechanical turk per tutti! :sofico:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.