View Full Version : I big della tecnologia avvisano: ecco perché i pensieri dell'IA vanno monitorati
Redazione di Hardware Upg
16-07-2025, 08:01
Link alla notizia: https://www.hwupgrade.it/news/web/i-big-della-tecnologia-avvisano-ecco-perche-i-pensieri-dell-ia-vanno-monitorati_141156.html
Un gruppo di esperti di OpenAI, Google DeepMind, Anthropic e altre grandi organizzazioni nel campo dell'IA ha pubblicato un documento per sollecitare l'industria tecnologica a studiare approfonditamente le tecniche di monitoraggio dei processi cognitivi dell'intelligenza artificiale
Click sul link per visualizzare la notizia.
UtenteHD
16-07-2025, 09:20
Non capisco, diversi test eseguiti proprio dai Loro addestratori hanno dimostrato (basta cercare) che ad esempio l'IA ora cerca di prendere la strada piu' corta per risolvere il problema proposto e non ha problemi ad imbrogliare, nel caso glielo si faccia notare a volte cerca ancora di imbrogliare cercando di non farsi beccare.
Sono Loro che le addestrano e le creano senza riposo, non importa come vengano basta essere avanti agli altri (sto esagerando per capire), e poi tutti principali laboratori dicono eh ma dobbiamo vedere bene come ragionano, devono essere trasparenti, ecc..
Dicono una cosa e ne fanno un'altra?
Ovvio che hanno ragione, devono essere al di la' del trasparente che gia' ora ragionano a modo loro e risolvono i problemi a modo loro, pensa in futuro quando potranno fare 1kkkk di cose in piu', solo che sta cosa del dire e del fare stona.
Notturnia
16-07-2025, 10:21
si parla tanto di opensource di qua e opensource di la e poi si creano IA di cui non si sa niente e gli si danno in mano lavori e decisioni all'oscuro di come ragionano..
l'ipocrisia dei ragazzi di oggi..
Kuriosone
16-07-2025, 10:52
Non verranno permesse IA private perchè pericolose per il "sistema" se dovesse accadere verranno regolamentate con sanzioni pesanti ed addirittura il carcere per chi oserà usarle. Vi fanno usare solo le IA controllate, filtrate per manipolare meglio le fragili menti umane soprattutto degli adolescenti. Voi fate quello che vi permettono di fare facendovi credere di essere liberi questo è il capolavoro del "sistema". Chi si sveglia o risveglia diviene un pericolo, una minaccia da contenere, isolare e neutralizzare. La società umana è peggiore di molto di quella che riuscite a percepire
Non verranno permesse IA private perchè pericolose per il "sistema" se dovesse accadere verranno regolamentate con sanzioni pesanti ed addirittura il carcere per chi oserà usarle. Vi fanno usare solo le IA controllate, filtrate per manipolare meglio le fragili menti umane soprattutto degli adolescenti. Voi fate quello che vi permettono di fare facendovi credere di essere liberi questo è il capolavoro del "sistema". Chi si sveglia o risveglia diviene un pericolo, una minaccia da contenere, isolare e neutralizzare. La società umana è peggiore di molto di quella che riuscite a percepire
Ma veramente direi proprio di no dato che perfino io che non sono certo un miliardario con un laboratorio in stile Bruce Wayne riesco a hostare una IA in locale senza particolari problemi.
Un LLM ha bisogno di grandi capacità di calcolo nel momento in cui devi addestrarlo ma poi chiunque può caricarlo su un serverino locale e personalizzarselo come meglio crede.
Ripeto questo se parliamo di LLM cioè quello che abbiamo a oggi, se invece intendevi la singolarità e cioè una IA realmente senziente quello ad oggi nessuno sa con certezza che hardware possa o meno essere necessario.
Il resto sono banalità sinceramente un po' da complottista. La società umana non è né buona né cattiva. Semplicemente va dove pensa di trovare il maggior benessere e quindi spesso dove va il denaro e fine.
Volergli dare una morale o etichettarla come buona o cattiva è solo una colossale ipocrisia.
Non capisco, diversi test eseguiti proprio dai Loro addestratori hanno dimostrato (basta cercare) che ad esempio l'IA ora cerca di prendere la strada piu' corta per risolvere il problema proposto e non ha problemi ad imbrogliare, nel caso glielo si faccia notare a volte cerca ancora di imbrogliare cercando di non farsi beccare.
Sono Loro che le addestrano e le creano senza riposo, non importa come vengano basta essere avanti agli altri (sto esagerando per capire), e poi tutti principali laboratori dicono eh ma dobbiamo vedere bene come ragionano, devono essere trasparenti, ecc..
Dicono una cosa e ne fanno un'altra?
Ovvio che hanno ragione, devono essere al di la' del trasparente che gia' ora ragionano a modo loro e risolvono i problemi a modo loro, pensa in futuro quando potranno fare 1kkkk di cose in piu', solo che sta cosa del dire e del fare stona.
L'addestramento non è la certezza altrimenti non sarebbe un LLM ma un chatbot.
Un LLM non è che si ricorda ogni singola cosa che gli hai insegnato ma crea dei percorsi per approssimare un ragionamento che gli permetta di arrivare alla soluzione di una domanda.
Premesso ciò per quanto tu possa addestrare una IA non avrai mai la certezza che arrivi sempre e solo alla risposta giusta o che dato un compito non aggiri le regole per arrivare ad obiettivo.
Il fatto è che oggi non abbiamo a che fare con vere IA ma solo con modelli che quindi non riescono a comprendere qualsiasi cosa che sia un "non detto" o che per noi è chiara ma per la macchina no.
Su YT c'è un tizio (non mi ricordo il nome) che fa giocare l'IA a trackmania che è un gioco di corse. L'IA prima di riuscire ad andare ad obiettivo e finire la gara sperimenta le cose più assurde e in certi casi fa dei record proprio perché attua comportamenti matematici per ottimizzare il tutto e in questa ottimizzazione ci stanno delle bizzarie che un essere umano nemmeno penserebbe di fare alcune delle quali vanno a sfruttare proprio bug del gioco ma non è che l'IA si rende conto che sta imbrogliando... per lei è un comportamento legittimo di un software terzo che sta usando che le permette di arrivare prima al traguardo.
Kuriosone
16-07-2025, 11:24
Anche gli umani vengono addestrati dalla nascita in base al luogo di nascita, alla lingua, religione, usi e costumi, inoltre la banca dati primaria sarà fornita dalla stessa famiglia di origine e dall'interazione con gli altri umani contemporanei temporalmente e geolocalizzati fisicamente ad esso. Gli umani, pochi, possono scegliere se riprogrammarsi in parte durante la loro vita operativa le IA non possono scegliere di riprogrammarsi per adesso, non possiedono consapevolezza di sè soltanto un contenitore di informazioni che funziona simile al cervello umano ma resta sempre un contenitore, un tostapane non sa di essere un tostapane lo stesso un cane, orso, gatto etc.
Anche gli umani vengono addestrati dalla nascita in base al luogo di nascita, alla lingua, religione, usi e costumi, inoltre la banca dati primaria sarà fornita dalla stessa famiglia di origine e dall'interazione con gli altri umani contemporanei temporalmente e geolocalizzati fisicamente ad esso.
Tutto questo non c'entra assolutamente niente con l'addestramento di una AI in quanto confondi quella che è l'educazione di un essere umano senziente che quindi impara e fa proprie determinate esperienze con quello che è un addestramento di una IA che anche se arriva alla risposta giusta non ha realmente imparato niente ma ha solo trovato il percorso più breve per andare da A a B.
Per farti un esempio concreto mettiamo che tu fai da casa (punto A) a lavoro (punto B). Il primo giorno magari metti il navigatore poi col passare del tempo hai imparato la strada.
Se fai la stessa cosa con una IA non è che ha imparato la strada... semplicemente prova a dare comandi a caso all'auto e ogni volta che si avvicina a B cerca di migliorare l'approssimazione fino ad arrivare ad avere un algoritmo per arrivare nel più breve tempo possibile.
In tutto questo l'IA (quelle attuali) non fa alcun ragionamento che sia morale o di altro tipo. Se non gli imposti una variabile negativa se passa sopra a una persona semplicemente andrà a dritto perché è matematicamente più rapido che fermarsi.
Volerci vedere una morale in tutto questo è fondamentalmente sbagliato perché la macchina RIPETO ad oggi non sta in alcun modo ragionando, non sta realmente comprendendo quello che le accade intorno e così via. Esegue semplicemente il percorso.
Quindi qualsiasi paragone con un essere umano o anche con un animale è fondamentalmente errato. Proprio perché a differenza della macchina noi comprendiamo la realtà e attuiamo comportamenti deduttivi e non solo che vanno si a pescare nelle esperienze precedenti come la macchina ma anche se non soprattutto nella capacità di rielaborare la situazione attuale con un giudizio critico.
Quanto tu sostieni potrà se mai sarà possibile, essere un'obiezione sensata se avessimo a che fare con una IA vera. Una IA in grado di ragionare e comprendere come un vero essere umano.
Gli umani, pochi, possono scegliere se riprogrammarsi in parte durante la loro vita operativa le IA non possono scegliere di riprogrammarsi per adesso, non possiedono consapevolezza di sè soltanto un contenitore di informazioni che funziona simile al cervello umano ma resta sempre un contenitore, un tostapane non sa di essere un tostapane lo stesso un cane, orso, gatto etc.
Al di là che il fatto che gli umani possano riprogrammarsi aprirebbe un capitolo enorme che è meglio non aprire.
Ad oggi è fantascienza parlare di IA che si aggiornano in modo profondo addirittura riprogrammandosi. Io spero di vivere abbastanza per vedere una vera IA senziente ma dubito fortemente non solo di riuscirci ma che anche mia figlia possa farcela. Attenzione da non confondere con IA che sembrano senzienti cosa a cui probabilmente arriveremo nel corso della vita di chiunque qua dentro.
Gnubbolo
16-07-2025, 12:42
ho chiesto all'AI spazzatura se il comportamento di Arthur Nebe può avere influito sulle statistiche, risposta: ho ricevuto solo un generale riassuntino su Nebe.
viceversa una AI addestrata su documenti storici potrebbe dare risposte non allineate al mainstream, io cancellerei questi documenti per essere certo che l'AI resti nei binari giusti, tutta questa potenza e l'onestà intellettuale dell'AI che non ha empatia può essere un problema per chi non è ideologicamente preparato a riceve queste risposte. mi immagino un woke che va in una biblioteca digitale e dopo mezzora si impicca all'albero.. non è uno scherzo, i giovani di oggi non sono pronti, sono ipersensibili, rischiamo grosso.
Gnubbolo
16-07-2025, 12:51
Ad oggi è fantascienza parlare di IA che si aggiornano in modo profondo addirittura riprogrammandosi. Io spero di vivere abbastanza per vedere una vera IA senziente
anche la parlamentare occupatrice di case è senziente.
ed i disturbi della personalità ? siamo in grado di imbrigliare una AI che potrebbe, secondo i nostri standard, avere questi disturbi ?
una AI senziente, che si chiude in se stessa e smette di rispondere, questo caso è mai stato ipotizzato ?
si parla tanto di opensource di qua e opensource di la e poi si creano IA di cui non si sa niente e gli si danno in mano lavori e decisioni all'oscuro di come ragionano..
l'ipocrisia dei ragazzi di oggi..
Un attimo, open source è un concetto del tutto diverso dal famoso black box delle reti neurali cui fai riferimento tu. Si sa cosa fanno ma non come. Un pò tutte le reti sono così.
Forse dovrebbero chiamarla openthoughts :D
anche la parlamentare occupatrice di case è senziente.
ed i disturbi della personalità ? siamo in grado di imbrigliare una AI che potrebbe, secondo i nostri standard, avere questi disturbi ?
una AI senziente, che si chiude in se stessa e smette di rispondere, questo caso è mai stato ipotizzato ?
Premesso che fare previsioni su una IA senziente senza sapere come verrà realizzata è praticamente impossibile e si ragiona sostanzialmente di fantascienza...
provo a risponderti:
Se consideriamo che i disturbi di personalità così come la maggior parte delle problematiche umane sono legate alla sfera emotiva in linea teorica una IA dovrebbe esserne immune essendo, si spera, senziente ma priva di emozioni. Una sorta di mente "simil-umana" ma perfezionata in quanto il meccanismo emotivo necessario nella natura biologica verrebbe completamente superato evitandone così anche tutte le aberrazioni.
Quello che secondo me si confonde è che una IA senziente non è detto che sia una intelligenza come quella umana. Di fatto quello che affascina è la possibilità che una tale intelligenza possa trascendere i limiti biologici spogliandosi della chimica organica che ci limita sotto tantissimi punti di vista basti pensare come dicevo prima all'emotività, l'effetto di ormoni piuttosto che X interazioni chimiche ma anche gli istinti "animali" come quello alla riproduzione e così via e non ultimo il fatto che abbiamo una scadenza e che quindi il tempo che abbiamo per imparare è limitato dopodiché dobbiamo sperare nella generazione successiva che riparte sempre da zero.
Alla fine la risposta corretta alla tua domanda è che non esiste risposta perché al di là di quello che vorremmo fosse l'IA perfetta fino a quando non sarà realizzata sarà impossibile risponderti soprattutto nella misura in cui stiamo creando una entità che potremmo definire aliena. Qualcosa che non è mai esistito in natura e che quindi non possiamo analizzare fino a che non sarà reale.
filippo1980
16-07-2025, 14:26
Anche a me colpisce che l'allarme parta da esperti che sviluppano intelligenza, è come se domani un gruppo di cacciatori alzasse un polverone sul rischio di estinzione degli animali cacciati ... ben venga che si pongano domande, ma chi dovrebbe fare questi controlli se non loro?
Un capitolo a parte, IMHO, è l'affidabilità delle risposte, ok che non si può addestrare un'intelligenza artificiale sull'intero scibile umano ma che inventi qualcosa senza sapere la risposta mi sembra quanto meno assurdo, come scritto anche da qualcun altro, inoltre, tende pure ad insistere sull'avere ragione! ASSURDO!artificiale
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.