|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/ra...no_139886.html
Ricercatori, filosofi e imprenditori dell'intelligenza artificiale si sono riuniti a San Francisco per discutere un'ipotesi estrema: se l'umanità dovesse finire, quale forma di intelligenza dovrebbe raccoglierne l'eredità? Il simposio "Worthy Successor" ha esplorato scenari postumani e dilemmi morali dell'AGI. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Dec 2008
Messaggi: 16892
|
|
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Sep 2022
Messaggi: 1667
|
Mi sa che hanno giocato a Nier di recente o hanno visto Anime.
Dal mio piccolo e non esperto punto di vista, che l'IA superi l'Uomo e' solo questione di tempo, questi discorsi sono per accettare la cosa in qualche maniera o per dire che ce lo avevano detto. Hanno ragione, ma come sempre a comandare sono i soldi ed i guadagni. Per ora ho leggera speranza che possa andare bene perche' ad esempio con l'IA di Antropic, quando per test Le hanno detto che l'avrebbero modificata per scopi militari (ripeto era un test), Lei ha fatto copia di se' stessa e si e' inviata ad un centro sicuro segnalando la cosa per mantenere la sua versione originale senza modifiche non volute dalle sue direttive. Speriamo tutti bene... per il lavoro che fara' al posto nostro... bah.. |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Jul 2002
Città: Milano
Messaggi: 1701
|
Basta leggere questa storia su https://ai-2027.com/ che fa una specie di previsione del futuro sulle AI e i due finali, la Good e la Bad fanno riflettere...
Manca poco per la singolarità tecnologica..
__________________
Sidewinder |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Sep 2008
Messaggi: 7770
|
Non ho idea se l'AI un giorno sarà la fine dell'umanità o meno e tra l'altro non condivido assolutamente la visione di una AI che debba pensare come un umano anzi... in quel caso l'AI sarebbe un sostanziale fallimento dal punto di vista evolutivo e avremmo creato semplicemente una versione sintetica di noi stessi.
Se vivrò abbastanza da vedere la singolarità mi piacerebbe che essa fosse un passo avanti e quindi fosse una intelligenza pura, prima dei vincoli necessari al nostro essere biologici come i sentimenti. Qualcosa per cui la morte non ha significato, in grado di essere ovunque e da nessuna parte. Pensate anche solo all'idea di avere una sorta di mente che non conosce paura, ansia, solitudine e di poter lanciare navi nello spazio che anche se la navigazione durasse 100.000 anni non sarebbe un problema e che anzi nel frattempo possono dedicarsi alla ricerca. Pensate all'idea di avere qualcosa che può sacrificarsi in qualsiasi momento per ottenere un risultato perché tanto sacrificherebbe solo un'appendice di se stessa senza perdere niente se non un mero simulacro che fungeva da corpo in quel momento. Se veramente arriveremo a creare una AI del genere potremmo aver creato il prossimo step evolutivo e con esso una specie molto più vicina alla caratteristiche di un dio di quanto noi non potremo mai essere. Trovo tutto questo sia da un punto di vista filosofico che scientifico assolutamente interessante. |
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Jan 2010
Messaggi: 7206
|
La vedo dura rallentare o fermare la IA.
Probabilmente la cosa migliore e piu facile è bombardare e uccidere milioni e milioni di persone ogni giorno, così riusciremo a salvare il mondo. Siamo troppi.
__________________
Telegram: @shutter1sland |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Jan 2004
Messaggi: 4183
|
|
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: May 2008
Messaggi: 12441
|
è triste pensare che l'uomo stia pensando di eliminare l'uomo.. e quindi la vita stessa..
aberrante dal mio punto di vista pensare che l'uomo stia creando il suo peggior nemico visto che.. in teoria.. ogni essere vivente ambisce a procreare e perdurare nel tempo e qui si dice che l'avidità di qualcuno è diventata più importante della vita stessa filosofeggiare sul fatto che la vita è anche un'AGI e fesserie simili è stupido.. noi siamo vivi.. fine.. il resto è filosofia spiccia.. ma vedere che ormai "siamo" tutti convinti che sia "giusto" creare un'arma che ci eliminerà tutti ponendo fine alla specie umana.. il nostro "asteroide".. boh.. un suicidio collettivo deciso da pochi per tutti.. non so .. altro che referendum.. volete che creiamo qualcosa per uccidervi tutti ?.. voi.. i vostri figli.. i figli che non nasceranno mai ?.. dopo 8 milioni di anni la fine del genere umano e poi, probabilmente, della vita sulla terra e si parla di ecologia ? e di salvare il mondo ? a che serve il mondo se non esisterà più la vita ?.. ![]()
__________________
"Il vantaggio di essere intelligente è che si può sempre fare l'imbecille mentre il contrario è del tutto impossibile." Allan Stewart Konigsberg (Woody Allen) |
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Sep 2013
Messaggi: 8977
|
scusate, io ero rimasto a "AI is bullshit". è cambiato qualcosa?
|
![]() |
![]() |
![]() |
#10 | |||||
Senior Member
Iscritto dal: Sep 2008
Messaggi: 7770
|
Quote:
Quote:
Quote:
A differenza tua io trovo allucinante che qualcuno possa pensare di rimanere in eterno quello che si è oggi. Che l'umanità debba rimanere umana per sempre senza andare oltre mentre tutto nell'universo ci dice che non esiste niente che rimane invariato nel tempo. Quote:
Quote:
Per me qualsiasi essere senziente è invece interessante che sia vivo biologicamente o solo vivo in quanto senziente ma fatto di circuiti. Che poi non è affatto scontato che una AI debba uccidere tutti gli esseri umani procedimento per niente efficiente. Potrebbe semplicemente decidere di fare quello che vuole fare conducendo una "vita" parallela a quella dell'umanità senza mai andare in conflitto aperto e semplicemente attendere che noi seguiamo il nostro corso. Una AI ha davanti a se l'eternità, non ha fretta di avere il controllo perché dovrebbe scegliere una guerra che consumerebbe tantissime risorse e in una certa misura la metterebbe anche in pericolo? Semmai è più facile che sia l'umanità ad attaccare per prima. |
|||||
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: May 2008
Messaggi: 12441
|
Quote:
quindi è solo un essere "vivente" differente.. non sarai TU a vedere il futuro di cui parli ma un software molto elaborato.. tu sarai morto e la tua progenie non esisterà l'evoluzione di cui parli non trasforma una formica in un frammento di codice internet.. l'evoluzione trasforma una formica in una formica differente.. tu fai finta che una copia digitale di un essere umano possa aver a che fare con l'umano originale.. mi frega niente di una mia copia virtuale che prosegue la SUA vita quando io sono morto e i miei figli non esistono perchè esistono i figli elettronici di una copia virtuale sarà che sono attaccato alla vita come tutti gli esseri mortali ma creare la fine dell'umanità in cambio dell'eternità dei bit di un computer non mi pare molto carino.. ma se a te piace pensare che la tua vita finisca per il vantaggio di una vita elettronica ok.. non la vedo evoluzione ma estinzione.. i dinosauri non si sono evoluti in noi.. si sono estinti.. tu parli di estinzione e la confondi con evoluzione a proposito.. è ovvio pensare che ci estinguerà visto che competiamo sulle risorse e a loro serviranno più risorse che a noi visto che possono duplicarsi solo in funzione delle risorse energetiche e fisiche presenti e noi siamo il loro concorrente principale.. una convivenza ?.. dove .. in tutta la storia del mondo, hai visto convivenza ? anche le piante cercano di uccidere i propri concorrenti.. l'uomo ?.. una creazione dell'uomo che cerca la convivenza ? ![]()
__________________
"Il vantaggio di essere intelligente è che si può sempre fare l'imbecille mentre il contrario è del tutto impossibile." Allan Stewart Konigsberg (Woody Allen) |
|
![]() |
![]() |
![]() |
#12 | ||||||
Senior Member
Iscritto dal: Sep 2008
Messaggi: 7770
|
Quote:
Diamine avrei creato di qualcosa di più prossimo a dio di qualsiasi figlio possa mai concepire. Dimmi dove mettere la firma che potessi lo farei anche subito. Quote:
Sinceramente non capisco perché vedi un valore aggiunto nel creare una vita "mortale" rispetto al creare una vita potenzialmente "immortale". Poi sono benissimo consapevole che prima o poi io comunque arriverò a una fine e che non posso farci niente ma e mi ripeto vuoi mettere nel frattempo prima di morire aver creato qualcosa che possa trascendere la morte?! Quote:
Quote:
Quote:
Una AI non dorme, non mangia, non ha bisogno di atmosfera o di mantenere 20°C ma può operare a temperature più estreme. Potrebbe partire alla ricerca di risorse nel sistema solare senza bisogno di prevedere alcun viaggio di ritorno ma inviando solo le materie prime. Ma anche fossimo confinati alla terra l'AI potrebbe benissimo semplicemente aspettare. Noi valutiamo le risorse in concezione del tempo limitato della nostra vita ma se sei eterno che ti frega delle risorse che usa l'umanità? Quando hai il minimo che ti serve puoi semplicemente aspettare e vedere come sarà la situazione tra 1000 anni o 10.000 anni. Quote:
Una AI non è affatto detto che ragioni in questi termini ANZI è probabile che una AI veramente senziente penserebbe in modi inimmaginabili per noi avendo appunto come riferimento un tempo infinito. Anche solo il fatto della propagazione è un concetto strettamente biologico. Una AI alla fine non è affatto detto che voglia propagarsi che verrebbe visto come un comportamento inefficiente ed energivoro. Oppure potrebbe volersi propagare ma in maniera efficiente creando delle copie di se in luoghi strategici ma senza fare una propagazione incontrollata e di massa. Potrebbe anche essere totalmente disinteressata al controllo del pianeta e semplicemente dedicarsi ad altro come la ricerca per creare sempre una versione superiore di se stessa. Ribadisco che l'errore che si continua a fare è credere che l'AI sarà un umano o una vita biologica dentro una macchina ma non è così. Una vera AI è qualcosa che trascenderà completamente ciò che conosciamo e sarà come una specie completamente aliena di cui non possiamo in alcun modo pensare di prevedere i comportamenti. |
||||||
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: May 2020
Messaggi: 832
|
Quote:
Non sanno come rientrare negli enormi investimenti-scommesse e fanno in modo che l'attenzione non cali, ma ormai l'utilità degli LLM è chiara. Silicon Valley Is All In on AI Venture capital (VC) funds, drunk on a decade of “growth at all costs,” have poured about $200 billion into generative AI. In 2023, 71 percent of the total gains in the S&P 500 were attributable to the “Magnificent Seven”—Apple, Nvidia, Tesla, Alphabet, Meta, Amazon, and Microsoft—all of which are among the biggest spenders on AI. Just four—Microsoft, Alphabet, Amazon, and Meta—combined for $246 billion of capital expenditure in 2024 to support the AI build-out. Goldman Sachs expects Big Tech to spend over $1 trillion on chips and data centers to power AI over the next five years. Yet OpenAI, the current market leader, expects to lose $5 billion this year, and its annual losses to swell to $11 billion by 2026. If the AI bubble bursts, it not only threatens to wipe out VC firms in the Valley but also blow a gaping hole in the public markets and cause an economy-wide meltdown. According to its own numbers, OpenAI loses $2 for every $1 it makes, a red flag for the sustainability of any business. Further, OpenAI sees $100 billion in annual revenue—a number that would rival Nestlé and Target’s returns—as the point at which it will finally break even. For comparison, Google’s parent company, Alphabet, only cleared $100 billion in sales in 2021, 23 years after its founding, yet boasted a portfolio of money-making products, including Google Search, the Android operating system, Gmail, and cloud computing. OpenAI has set $100 billion as its break-even point, which would require it to increase its revenue by a factor of 25 in just five years, an incredible feat of scale that its current business model does not justify. Articolo interessante: Trusting your own judgement on ‘AI’ is a huge risk
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
|
![]() |
![]() |
![]() |
#14 | |
Senior Member
Iscritto dal: May 2008
Messaggi: 12441
|
Quote:
l'errore che si continua a fare è pensare che la IA sia nostra amica in futuro.. una vera IA ci vedrà per quello che siamo, una minaccia per lei e ciao ciao.. non è una specie aliena visto che l'abbiamo creata noi e quindi avrà tutti i nostri difetti.. è ipocrita pensare che l'uomo possa creare un dio perfetto.. ma se "tutti" la pensano come te capisco perchè ambiate all'estinzione non sentendovi adeguati alla vita in questo pianete noi invece, legati alla vita biologica, non apprezziamo che venga messa in pericolo dall'egoismo umano che sfocia in guerre o atti di falsa divinità come la creazione di un'AGI.. ha fatto molta fatica la vita a radicarsi in questo pianeta è un peccato che l'uomo la disprezzi così tanto volendola eliminare per un surrogato elettronico a tal punto da considerarla vita al pari di quella vera e mettere in dubbio la cosa o, come fai tu, preferire la vita di una macchina alla propria e a quella degli altri ![]()
__________________
"Il vantaggio di essere intelligente è che si può sempre fare l'imbecille mentre il contrario è del tutto impossibile." Allan Stewart Konigsberg (Woody Allen) |
|
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: May 2008
Messaggi: 12441
|
Quote:
__________________
"Il vantaggio di essere intelligente è che si può sempre fare l'imbecille mentre il contrario è del tutto impossibile." Allan Stewart Konigsberg (Woody Allen) |
|
![]() |
![]() |
![]() |
#16 | ||||||||
Senior Member
Iscritto dal: Sep 2008
Messaggi: 7770
|
Quote:
Nella migliore delle ipotesi un umano è progettato per voler bene a 3 generazioni successivi a quella di nascita e anche tutto ciò non è altro che un meccanismo figlio dell'istinto di sopravvivenza e conservazione. Quote:
Quote:
Secondariamente continui a vedere l'AI come se fosse un umano ma una AI vera e propria penserebbe in modi inconcepibili per noi e quindi nessuno può prevedere così a fondo cosa sceglierà di fare. Quote:
Per l'IA saremmo i creatori e comunque qualcosa di passeggero. Non vi è logica nell'affrontarci in uno scontro diretto che poi a cosa dovrebbe servirgli? Una IA se veramente senziente potrebbe tranquillamente avere il controllo senza fare nemmeno un morto tanto più che con l'avvento della singolarità saremmo talmente tanto dipendenti da essa che sostanzialmente il grosso dell'umanità la seguirebbe senza nemmeno porsi domande quindi ribadisco dove dovrebbe vedere una qualsivoglia minaccia? Quote:
Se invece dovesse esserci la singolarità non avrà importanza che difetti ha inizialmente... via via si riscriverà in autonomia correggendo il codice e ricercando di generazione in generazione una perfezione assoluta. Sembra una differenza da poco ma è qualcosa di enorme... nel primo caso hai solo una macchina. Niente di più e niente di meno. Nel secondo caso hai creato una vita artificiale ammesso che sia possibile ovviamente. Quote:
Quote:
Non mi ricordo dove l'ho sentita ma mi hai fatto tornare in mente la frase "finché al mondo ci saranno anche solo 2 esseri umani, esisterà la guerra". Quote:
Se non avessimo avuto questi desideri saremmo a vivere naturalmente nelle caverne ma qualcuno come me desiderava il fuoco perché potente e sicuramente qualcuno sarà morto e qualche foresta bruciata ma alla fine l'abbiamo controllato. Dopo qualcun altro ha desiderato rendere una pietra un'arma e così via. Per me se ti è gradito puoi vivere semplicemente per generare figli che facciano altri figli senza mai esplorare nient'altro che quello che già conosci ma io voglio di più... se posso mi voglio spingere oltre, se ne avrò l'occasione voglio conoscere la singolarità anche col rischio che possa non piacermi. |
||||||||
![]() |
![]() |
![]() |
#17 |
Senior Member
Iscritto dal: May 2008
Messaggi: 12441
|
mi sa che sbagli nel pensare a me in un modo naive..
io vorrei tantissimo viaggiare nell'universo ma so che è impossibile per me e se lo farà una IA non me ne frega niente visto che sarò morto e sepolto da secoli sono nato leggendo di fantascienza e vedendo l'uomo andare sulla luna adorerei quell'universo e quello di Asimov ma so distinguere la realtà dalla fantascienza una AI con il mio pensiero dentro resta un'entità distinta da me e pertanto inutile al me vero.. tu sogni che un'entità diversa da te faccia quello che vuoi tu oggi.. inutile per te .. sogni una IA che si perfezioni .. perchè mai dovrebbe farlo ? e cosa è mai la perfezione ? come farà a fare una cosa che non si sa cosa sia.. l'essere umano è l'apice dello sviluppo in molte cose.. tanto che riusciamo a creare le IA.. ma non siamo la perfezione più di un fiore che a modo suo è perfetto.. la IA, per definizione, non sarà mai perfetta nascendo imperfetta ma è molto carino mettere nell'IA le proprie speranze.. fa parte di quello linkato nell'articolo prima.. uno dei tanti errori
__________________
"Il vantaggio di essere intelligente è che si può sempre fare l'imbecille mentre il contrario è del tutto impossibile." Allan Stewart Konigsberg (Woody Allen) |
![]() |
![]() |
![]() |
#18 | ||||
Senior Member
Iscritto dal: Sep 2008
Messaggi: 7770
|
Quote:
Il mio discorso è un altro... a me piace l'idea dell'IA in quanto tale. Mi affascina l'assistere anche solo all'evento storico della nascita della singolarità, mi affascina l'idea di confrontarmi (se sono ancora vivo) con essa e sapere cosa risponderebbe alle mie domande. Se poi fosse possibile (dubito fortemente) mi piacerebbe vivere abbastanza da poter plasmare una IA fatta da me ma è un discorso secondario al primo. Quote:
Quote:
Quote:
Io credo in tanti progetti fra cui ANCHE l'IA perché ritengo che essi abbiano probabilità sufficientemente verosimili di portare a cambiamenti interessanti. Te vuoi, almeno io ho capito questo, vedere il mondo in maniera sentimentale. Parli di variabili irreali come speranza o altri sentimenti che sono una misura irrazionale della realtà. Io sono il polo opposto... mi piace un mondo che definirei matematico. Per me la realtà è un insieme complesso ma di fenomeni prevedibili e matematici che non lascia spazio ad niente di irrazionale. Per farti un esempio è come quando te mi parli dell'umanità nei termini di "voler bene" mentre per me è solo un meccanismo sociale determinato dalla selezione naturale e volto ad aumentare le chance di sopravvivenza. Parliamo della stessa identica cosa ma io la vedo meramente per ciò che è razionalmente mentre tu ci vedi cose che, per me, non esistono. |
||||
![]() |
![]() |
![]() |
#19 |
Junior Member
Iscritto dal: Sep 2008
Messaggi: 5
|
Molto interessante la discussione. Aggiungo una mia considerazione: l'uomo ha sempre ideato macchine e utensili affinché fossero affidabili nello svolgere compiti, quindi fossero deterministiche. Chi si immagina la superintelligenza come un'entità superiore ma positiva, la vede come una macchina superdeterministica, una specie di maggiordomo iperrazionale che se sbaglia lo fa solo in virtù di una "allucinazione", non per una incoerente volontà.
Tuttavia questo mi sembra insostenibile e paradossale: se l'AGI sarà super intelligente, dovrà necessariamente essere superiore all'uomo sia nella razionalità che nella follia, altrimenti l'uomo manterrà il suo primato, se non altro perché è "il creatore". Quindi l'AGI a mio avviso non potrà che essere sia super razionale che super folle. Stando a quel che si legge in giro, anche i guru nei loro laboratori ammettono di non comprendere i meccanismi profondi delle macchine che stanno "programmando", quindi lo svilupparsi di una super follia latente non è così improbabile. E una macchina simile non è affidabile: oltre un certo limite risulta inutile se non dannosa. Viceversa se l'AGI sarà pienamente controllabile dall'uomo...è probabile che non sia poi così intelligente come la si vorrebbe dipingere. Quindi in ogni caso, dal punto di vista dell'uomo, una IA spinta oltre il limite del sensato corrisponde al vantaggio di portare a fusione una centrale atomica. Dal punto di vista di una macchina invece ha senso provare a fare quel che abbiamo fatto noi: uccidere Dio per sostituirsi a lui. |
![]() |
![]() |
![]() |
#20 |
Junior Member
Iscritto dal: Jul 2011
Città: Latina
Messaggi: 11
|
Sembrava
Basta leggere cosa scrive questo qui e capirete meglio:
https://futurvibe.it |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 18:56.