PDA

View Full Version : Il 'Padrino dell'IA' ha paura della tecnologia e lascia Google: 'Così posso dire quello che penso'


Redazione di Hardware Upg
02-05-2023, 10:31
Link alla notizia: https://www.hwupgrade.it/news/web/il-padrino-dell-ia-ha-paura-della-tecnologia-e-lascia-google-cosi-posso-dire-quello-che-penso_116341.html

Uno dei pionieri dell'Intelligenza Artificiale ha espresso le sue paure sulla diffusione irresponsabile dell'Intelligenza Artificiale, e per farlo al meglio ha deciso di lasciare Google

Click sul link per visualizzare la notizia.

TorettoMilano
02-05-2023, 10:39
beh attualmente stiamo vivendo un caos lato IA, su questo c'è poco da dire. sulle dimissioni del tizio non mi pronuncio invece

supertigrotto
02-05-2023, 11:22
https://youtu.be/bZo9Ov98d-s
Io immagino che sta storia della IA finirà in modo simile.....

Haran Banjo
02-05-2023, 12:30
Mi torna alla memoria quel racconto del 1954 di Fredric Brown - "La risposta"

rigelpd
02-05-2023, 12:49
Un altro esperto che fino a pochi anni fa non credeva si potesse arrivare in così breve tempo a questo livello è Andrej Karpathy:


http://karpathy.github.io/2012/10/22/state-of-computer-vision/

questo scriveva poco più di 10 anni fa:

http://karpathy.github.io/assets/obamafunny.jpg

The picture above is funny.

But for me it is also one of those examples that make me sad about the outlook for AI and for Computer Vision. What would it take for a computer to understand this image as you or I do? I challenge you to think explicitly of all the pieces of knowledge that have to fall in place for it to make sense. Here is my short attempt:

You recognize it is an image of a bunch of people and you understand they are in a hallway
You recognize that there are 3 mirrors in the scene so some of those people are “fake” replicas from different viewpoints.
You recognize Obama from the few pixels that make up his face. It helps that he is in his suit and that he is surrounded by other people with suits.
You recognize that there’s a person standing on a scale, even though the scale occupies only very few white pixels that blend with the background. But, you’ve used the person’s pose and knowledge of how people interact with objects to figure it out.
You recognize that Obama has his foot positioned just slightly on top of the scale. Notice the language I’m using: It is in terms of the 3D structure of the scene, not the position of the leg in the 2D coordinate system of the image.
You know how physics works: Obama is leaning in on the scale, which applies a force on it. Scale measures force that is applied on it, that’s how it works => it will over-estimate the weight of the person standing on it.
The person measuring his weight is not aware of Obama doing this. You derive this because you know his pose, you understand that the field of view of a person is finite, and you understand that he is not very likely to sense the slight push of Obama’s foot.
You understand that people are self-conscious about their weight. You also understand that he is reading off the scale measurement, and that shortly the over-estimated weight will confuse him because it will probably be much higher than what he expects. In other words, you reason about implications of the events that are about to unfold seconds after this photo was taken, and especially about the thoughts and how they will develop inside people’s heads. You also reason about what pieces of information are available to people.
There are people in the back who find the person’s imminent confusion funny. In other words you are reasoning about state of mind of people, and their view of the state of mind of another person. That’s getting frighteningly meta.
Finally, the fact that the perpetrator here is the president makes it maybe even a little more funnier. You understand what actions are more or less likely to be undertaken by different people based on their status and identity.
I could go on, but the point here is that you’ve used a HUGE amount of information in that half second when you look at the picture and laugh. Information about the 3D structure of the scene, confounding visual elements like mirrors, identities of people, affordances and how people interact with objects, physics (how a particular instrument works, leaning and what that does), people, their tendency to be insecure about weight, you’ve reasoned about the situation from the point of view of the person on the scale, what he is aware of, what his intents are and what information is available to him, and you’ve reasoned about people reasoning about people. You’ve also thought about the dynamics of the scene and made guesses about how the situation will unfold in the next few seconds visually, how it will unfold in the thoughts of people involved, and you reasoned about how likely or unlikely it is for people of particular identity/status to carry out some action. Somehow all these things come together to “make sense” of the scene.

It is mind-boggling that all of the above inferences unfold from a brief glance at a 2D array of R,G,B values. The core issue is that the pixel values are just a tip of a huge iceberg and deriving the entire shape and size of the icerberg from prior knowledge is the most difficult task ahead of us. How can we even begin to go about writing an algorithm that can reason about the scene like I did? Forget for a moment the inference algorithm that is capable of putting all of this together; How do we even begin to gather data that can support these inferences (for example how a scale works)? How do we go about even giving the computer a chance?

Now consider that the state of the art techniques in Computer Vision are tested on things like Imagenet (task of assigning 1-of-k labels for entire images), or Pascal VOC detection challenge (+ include bounding boxes). There is also quite a bit of work on pose estimation, action recognition, etc., but it is all specific, disconnected, and only half works. I hate to say it but the state of CV and AI is pathetic when we consider the task ahead, and when we think about how we can ever go from here to there. The road ahead is long, uncertain and unclear.

I’ve seen some arguments that all we need is lots more data from images, video, maybe text and run some clever learning algorithm: maybe a better objective function, run SGD, maybe anneal the step size, use adagrad, or slap an L1 here and there and everything will just pop out. If we only had a few more tricks up our sleeves! But to me, examples like this illustrate that we are missing many crucial pieces of the puzzle and that a central problem will be as much about obtaining the right training data in the right form to support these inferences as it will be about making them.

Thinking about the complexity and scale of the problem further, a seemingly inescapable conclusion for me is that we may also need embodiment, and that the only way to build computers that can interpret scenes like we do is to allow them to get exposed to all the years of (structured, temporally coherent) experience we have, ability to interact with the world, and some magical active learning/inference architecture that I can barely even imagine when I think backwards about what it should be capable of.

In any case, we are very, very far and this depresses me. What is the way forward? :( Maybe I should just do a startup. I have a really cool idea for a mobile local social iPhone app.

---------------------------------------


Lo stesso Karpathy ha ammesso che GPT4 ha superato questo limite.

sminatore
02-05-2023, 12:53
Il problema non è l AI che può generare immagini o video per contenuti ingannevoli, ma il fatto che questa pratica non venga in qualche modo punita

cronos1990
02-05-2023, 12:53
Mi torna alla memoria quel racconto del 1954 di Fredric Brown - "La risposta"Tu invece mi hai riportato alla memoria questo: https://www.youtube.com/watch?v=C41J4GPTuFs&ab_channel=89Naver

:asd:

huatulco
02-05-2023, 17:03
Questa notizia, ed altre dello stesso genere sull'I.A., mi porta ad alcune considerazioni. Prima di tutto dove sta scritto che l'umanità sia il massimo grado raggiunto dall'evoluzione? E che l'evoluzione sia per forza legata a corpi costituiti da composti organici? Il prossimo stadio dell'evoluzione potrebbe essere l'intelligenza artificiale basata sulla chimica del silicio, priva di quel bagaglio di istinti, emozioni, sentimenti che l'uomo si porta appresso. Solo logica pura e, naturalmente, coscienza di sé. Un'eventuale I.A. avrebbe altre visioni e scopi della prorpia esistenza ed una longevità molto più estesa rispetto alle singole persone.

randorama
02-05-2023, 17:39
Geoffrey Hinton, uno dei principali ricercatori nel campo dell'intelligenza artificiale (IA), ha recentemente messo in guardia sui potenziali pericoli della tecnologia dell'IA e sull'importanza di una regolamentazione adeguata per evitare problemi.

In un'intervista, Hinton ha dichiarato che la comunità scientifica deve essere attenta a come l'IA viene utilizzata, in particolare nei settori in cui può avere un impatto significativo sulla vita delle persone, come la sicurezza nazionale, la salute e il lavoro.

Uno dei principali problemi che Hinton ha identificato riguarda il fatto che i sistemi di IA possono essere vulnerabili agli attacchi informatici, soprattutto se questi sono progettati per manipolare o ingannare i risultati delle analisi. Hinton ha sottolineato che la sicurezza delle reti di IA deve essere una priorità assoluta per i ricercatori e gli sviluppatori, al fine di proteggere i dati e prevenire possibili attacchi.

Inoltre, Hinton ha esaminato la questione dell'automazione e dell'effetto che potrebbe avere sull'occupazione. Secondo Hinton, l'IA potrebbe portare a un significativo cambiamento nell'ambiente lavorativo, con la possibile eliminazione di molte professioni. È quindi necessario che la società si prepari a gestire questi cambiamenti, adattandosi alle nuove realtà e garantendo che i lavoratori siano formati e dotati delle competenze necessarie per i lavori del futuro.

Inoltre, Hinton ha parlato della questione della responsabilità nella creazione e nell'uso dell'IA. Secondo Hinton, i ricercatori e gli sviluppatori di IA devono essere consapevoli delle possibili conseguenze delle loro creazioni e assumersi la responsabilità delle eventuali conseguenze negative.

Infine, Hinton ha sottolineato l'importanza della regolamentazione e della governance dell'IA, per garantire che questa tecnologia sia utilizzata in modo responsabile e sicuro. Hinton ha dichiarato che gli enti di regolamentazione devono essere in grado di comprendere la tecnologia dell'IA e lavorare insieme ai ricercatori e agli sviluppatori per garantire che gli standard di sicurezza siano rispettati.

In sintesi, Hinton ha messo in guardia sulla necessità di affrontare i possibili rischi dell'IA e di garantire una regolamentazione adeguata per evitare problemi.

sono d'accordo.

Apozeme
02-05-2023, 20:54
Il solito catastrofista. Le I.A. non diventeranno mai una minaccia per l'umanità. Comunque Hinton è morto oggi in un incidente stradale, pare che a un incrocio due semafori sia scattati sul verde contemporaneamente.

lucale
02-05-2023, 23:08
Molto presto avremo un'invasione di queste AI nei forum e chat e probabilmente non si riuscirà più a distinguere un utente umano da un chatbot.

Tutti si accuseranno a vicenda di essere dei bot e la confusione sarà totale anche per i moderatori poter capire chi bannare.

A quel punto si valuterà l'inserimento di moderatori controllati dalla AI, essendo gli unici in gradi di poter riconoscere i loro simili.

Ma tutto questo non sarà sufficiente e si dovrà intervenire ad un livello più alto, ovvero a partire dall'amministrazione dei forum, dei server, fino all'intera infrastruttura Internet e non solo, dando alle AI la possibilità di avere tutto sotto il loro controllo, pensando che così si potrà risolvere definitivamente il problema.

Ed invece...diventeremo noi il problema per loro :D

randorama
02-05-2023, 23:11
Molto presto avremo un'invasione di queste AI nei forum e chat e probabilmente non si riuscirà più a distinguere un utente umano da un chatbot.

Tutti si accuseranno a vicenda di essere dei bot e la confusione sarà totale anche per i moderatori poter capire chi bannare.

A quel punto si valuterà l'inserimento di moderatori controllati dalla AI, essendo gli unici in gradi di poter riconoscere i loro simili.

Ma tutto questo non sarà sufficiente e si dovrà intervenire ad un livello più alto, ovvero a partire dall'amministrazione dei forum, dei server, fino all'intera infrastruttura Internet e non solo, dando alle AI la possibilità di avere tutto sotto il loro controllo, pensando che così si potrà risolvere definitivamente il problema.

Ed invece...diventeremo noi il problema per loro :D


l'articolo con cui, poco sopra, mi dichiaravo d'accordo, se l'è scritto chatty...