PDA

View Full Version : Una lettera aperta per sensiblizzare la ricerca sullo sviluppo delle intelligenze artificiali


Redazione di Hardware Upg
14-01-2015, 09:41
Link alla notizia: http://www.businessmagazine.it/news/una-lettera-aperta-per-sensiblizzare-la-ricerca-sullo-sviluppo-delle-intelligenze-artificiali_55601.html

Firmata anche da Stephen Hawking ed Elon Musk, la lettera aperta del Future of Life Institute chiede al mondo della ricerca tecnologica di sviluppare intelligenze artificiali pienamente controllabili e che siano di beneficio per la civiltà

Click sul link per visualizzare la notizia.

gd350turbo
14-01-2015, 10:04
ma pensate prima a sviluppare le intelligenze organiche !

che la popolazione sta aumentando, ma il livello di intelligenza globale è immutato !

demon77
14-01-2015, 10:08
Leggere queste cose sembra una assurdità da film di fantascienza..
eppure non è così.

i tempi sono maturi per stendere quelle che sono linee guida importanti su come gestire delle entità che tra non più di due o tre decenni saranno parte integrante delle nostre vite.
Credo che questo in futuro sarà un argomento parecchio caldo.. mi torna in mente "animatrix"

+Benito+
14-01-2015, 10:24
Da profano, mi chiedo: gli esseri vivi imparano operando a random sui propri attuatori e ricevendo dai recettori stimoli valutati su una scala bene-----male inizialmente basata su un principio meccanico-chimico (la mia rete neurale percepisce "dolore") e poi ad un livello che coivolge la chimica della psicologia.

Riprodurre un sistema del genere che abbia una componente random nell'uso degli attuatori e che scriva codice in funzione della valutazione del feedback è quello che si fa?

bobafetthotmail
14-01-2015, 10:44
Mah. io tutto sto taglio catastrofista non lo vedo.

un sistema AI deve essere in grado di comprendere qualcosa al di fuori del proprio compito per potersi "ribellare", e già questo è difficile da giustificare economicamente visto che non si crea da solo e quella capacità sarebbe un costo enorme per nulla.

Un sistema AI che prende decisioni "autonome" in base ad un programma scritto da qualcuno di fatto scarica tutta la responsabilità legale delle sue azioni sulla compagnia produttrice. Già questo è un deterrente FORTE a fare sistemi AI generalisti, quelli da fantascienza.

L'unica ragione per sviluppare AI nel senso fantascientifico del termine è di simulare l'essere umano per scopi di ricerca (sul cercello) o ricreativi, o anche "riproduttivi" per una ristretta cerchia di fanatici.

Riprodurre un sistema del genere che abbia una componente random nell'uso degli attuatori e che scriva codice in funzione della valutazione del feedback è quello che si fa? Più complesso, ma sempre tratto dal nostro cervello.
Il robot si ricrea un mondo virtuale basandosi su dati del mondo reale, e poi usa quello per fare delle prove e sviluppare una strategia che viene applicata nel mondo reale dagli attuatori. Se gli fai fare cose random nel mondo reale ti combinano tanti di quei casini....

Noi facciamo nello stesso modo, del resto. Magari non il poppante, ma l'adulto si.

Finchè si parla di ambienti relativamente semplici (stanze con qualche ostacolo) ce la fanno, fuori nell'ambiente naturale... meno.
Comunque ci sono robot che hanno imparato a "cucinare" (sembra più usare strumenti da cucina) vedendo youtube (riconoscendo i movimenti e "pensando" a come ottenere gli stessi risultati), quindi non siamo messi così male. http://www.sciencedaily.com/releases/2015/01/150113090600.htm

Fargli distinguere gli oggetti resta problematico. Ad esempio un muro da un cespuglio, o un ramo da una mela. Senza usare sistemi complessi come radar/ladar/sonar e telecamere multispettrali avanzate ovviamente.

Mparlav
14-01-2015, 11:05
Anch'io penso che debbano essere proposte delle linee guida il prima possibile, perché a livello di ricerca militare lo stato di avanzamento dell'IA potrebbe essere molto più avanzato di quel che si pensi.
I "firmatari" di questa richiesta potrebbero aver avuto accesso ad informazioni un po' più dettagliate di quelle di pubblico dominio
Ed ecco la loro preoccupazione, o quanto meno, la volontà che si apra un dibattito sulla materia.

D'altronde i dibattiti sulla clonazione umana sono stati posti già a partire dagli anni '60, anche se poi concretamente, ci sono voluti decenni per arrivare alla "fattibilità tecnica" (teoricamente, visto che molte legislazioni proibiscono di superare un certo livello di sviluppo).

demon77
14-01-2015, 11:15
Mah. io tutto sto taglio catastrofista non lo vedo.

un sistema AI deve essere in grado di comprendere qualcosa al di fuori del proprio compito per potersi "ribellare", e già questo è difficile da giustificare economicamente visto che non si crea da solo e quella capacità sarebbe un costo enorme per nulla.

Un sistema AI che prende decisioni "autonome" in base ad un programma scritto da qualcuno di fatto scarica tutta la responsabilità legale delle sue azioni sulla compagnia produttrice. Già questo è un deterrente FORTE a fare sistemi AI generalisti, quelli da fantascienza.

L'unica ragione per sviluppare AI nel senso fantascientifico del termine è di simulare l'essere umano per scopi di ricerca (sul cercello) o ricreativi, o anche "riproduttivi" per una ristretta cerchia di fanatici.

Più complesso, ma sempre tratto dal nostro cervello.
Il robot si ricrea un mondo virtuale basandosi su dati del mondo reale, e poi usa quello per fare delle prove e sviluppare una strategia che viene applicata nel mondo reale dagli attuatori. Se gli fai fare cose random nel mondo reale ti combinano tanti di quei casini....

Noi facciamo nello stesso modo, del resto. Magari non il poppante, ma l'adulto si.

Finchè si parla di ambienti relativamente semplici (stanze con qualche ostacolo) ce la fanno, fuori nell'ambiente naturale... meno.
Comunque ci sono robot che hanno imparato a "cucinare" (sembra più usare strumenti da cucina) vedendo youtube, quindi non siamo messi così male. http://www.sciencedaily.com/releases/2015/01/150113090600.htm

Fargli distinguere gli oggetti resta problematico. Ad esempio un muro da un cespuglio, o un ramo da una mela. Senza usare sistemi complessi come radar/ladar/sonar ovviamente.

Non è catastrofismo in stile "ommioddio skynet". :)
Il fatto è che la ricerca scientifica da parecchio insegue il mito dell'intelligenza artificiale, ed i "livelli" sono tanti prima di arrivare al traguardo ultimo.

In primis è poco corretto parlare di "programma" nel senso tradizionale del termine, caratteristica peculiare dell'intelligenza artificaile è appunto quella di prendere decisioni autonome sulla base di dati in ingresso e soprattuto quella di modificare il proprio comportamento sulla base dell'esperienza.

E' chiaro che adesso si fa fatica ad immaginarsi il tutto.. ma prova a penare ad un domani (cinquanta anni magari) quando la "siri" di turno sarà tanto avanzata da raggiungere livelli di ragionamento identici a quelli di un essere umano.. e quando questa "siri" prenderà autocoscienza raggiungendo quindi a tutti gli effetti lo status di essere vivente..

Facile immaginare che come minimo pretenderà di essere trattata come tale.. si apriranno questioni "etiche" non da poco.

aqua84
14-01-2015, 11:16
Allora, a parte che il termine INTELLIGENZA non è del tutto spiegabile.

Detto questo, secondo me, non si riuscirà mai a realizzare un qualcosa che ha una sua intelligenza identica o superiore a quella dell'essere umano.
Penso sia impossibile.

Ricordiamoci che dalla scienza, all'informatica, alla medicina, ecc... tutto quello che è stato scoperto e si sta scoprendo ancora adesso è SEMPRE e SOLO scoperto dall'Uomo.

La macchina ti può aiutare dove metteresti piu tempo del necessario, ma le istruzioni, i miglioramenti e tutto il resto è sempre fatto dall'uomo.

TwinDeagle
14-01-2015, 11:33
Anch'io penso che debbano essere proposte delle linee guida il prima possibile, perché a livello di ricerca militare lo stato di avanzamento dell'IA potrebbe essere molto più avanzato di quel che si pensi.
I "firmatari" di questa richiesta potrebbero aver avuto accesso ad informazioni un po' più dettagliate di quelle di pubblico dominio
Ed ecco la loro preoccupazione, o quanto meno, la volontà che si apra un dibattito sulla materia.

D'altronde i dibattiti sulla clonazione umana sono stati posti già a partire dagli anni '60, anche se poi concretamente, ci sono voluti decenni per arrivare alla "fattibilità tecnica" (teoricamente, visto che molte legislazioni proibiscono di superare un certo livello di sviluppo).

Il campo militare è mostruosamente più avanzato di quanto possiamo lontanamente immaginare. E questo detto da alcuni miei professori di robotica ed elettronica digitale. Basta fare una passeggiata ad una qualunque facoltà di robotica e chiedere di vedere qualche video non segretato militare, che li girano in quantità, per rimanere increduli di fronte a cosa sono in grado autonomamente di fare i robot e a quale livello l'AI è arrivata. Detto questo, i robot mi fanno decisamente paura, nonostante è il campo in cui lavoro. Questo perché abbiamo creato un idea(essendo ancora lunghissima la strada da fare per renderla concreta) potenzialmente molto migliore del creatore. L'idea di un essere con una diversa forma di vita dalla nostra, slegato completamente dai limiti che l'uomo ha per natura. Quando e se una macchina raggiungerà un sufficiente grado di autonomia e intelligenza, questa sarà anche in grado di trovare il modo di migliorarsi autonomamente. E non credete, è questo il vero pilastro della ricerca in questa direzione. Lo scopo non è ricreare l'uomo, ma capire come potenziarlo.

Darkon
14-01-2015, 11:48
Allora, a parte che il termine INTELLIGENZA non è del tutto spiegabile.

Detto questo, secondo me, non si riuscirà mai a realizzare un qualcosa che ha una sua intelligenza identica o superiore a quella dell'essere umano.
Penso sia impossibile.

Ricordiamoci che dalla scienza, all'informatica, alla medicina, ecc... tutto quello che è stato scoperto e si sta scoprendo ancora adesso è SEMPRE e SOLO scoperto dall'Uomo.

La macchina ti può aiutare dove metteresti piu tempo del necessario, ma le istruzioni, i miglioramenti e tutto il resto è sempre fatto dall'uomo.

L'insuperabilità dell'uomo è una pia illusione. Il fatto che ancora non si abbia la padronanza di tali meccanismi e quindi non si possano pienamente ingegnerizzare è solo una mancanza di conoscenza ma prima o poi sarà invevitabile che l'uomo venga superato.

A quel punto ci sarà da vedere se e come l'IA valuterà la vita umana o i mezzi che ci saranno. Francamente nella visione darwiniana dell'evoluzione non sarebbe così assurdo che la vita meccanica sia l'evoluzione della vita umana biologica verso standard più elevati.

bobafetthotmail
14-01-2015, 12:09
In primis è poco corretto parlare di "programma" nel senso tradizionale del termine, caratteristica peculiare dell'intelligenza artificaile è appunto quella di prendere decisioni autonome sulla base di dati in ingresso e soprattuto quella di modificare il proprio comportamento sulla base dell'esperienza.Un programma è solo una serie di procedure rigide.
Una macchina non prende decisioni nel senso "umano" (romantico) del termine, reagisce in modo rigido (e non per forza logico) agli stimoli.
Dato che una macchina in sè non fa nulla, gli serve un programma, una lista di procedure e reazioni a stimoli.
AI o non AI, senza un software l'hardware non gira, punto.

Sotto tutti i punti di vista anche un cervello biologico è una macchina, perchè si comporta come tale. Solo che la complessità è molto maggiore quindi i possibili risultati più difficili da prevedere. Non so se hai notato che gli esseri umani tendono comunque a comportarsi in modo abbastanza simile e prevedibile salvo alcune eccezioni...

Sempre dato che una AI è stata creata da terzi si possono facilmente scegliere parti del programma limitate dove può imparare dall'esperienza, e lasciare altre read-only.

Muovendo il parallelo sugli esseri umani questo "blocco irrazionale al cambiamento di un dato aspetto" si potrebbe descrivere come un condizionamento, una dipendenza, delle pulsioni irrefrenabili, seguire un proprio codice morale interno. Non mi sembrano cose così strane per un essere umano.

Per dire, ci sono persone "malate di lavoro". Quale sarebbe il problema per un sistema artificiale? Gli importa solo di fare il suo lavoro e di farlo bene. Bum, fine delle discussioni etiche. Fare quello che fa gli piace. Assumendo che debba per forza avere emozioni per funzionare, che non è detto.

Una AI generalista e autonoma porta una valanga di domande su chi siamo noi.
E sticazzi l'emancipazione degli schiavi 2.0. Quella roba non è nuova e francamente la tematica ha anche un pò rotto le scatole.

Qui la cosa rivoluzionaria è l'essere forzati a riconsiderare l'idea di essere umano da zero dato che le differenze tra un umano e un programma artificiale diventeranno sempre meno distinguibili.

No perchè la macchina sappiamo cos'è (l'abbiamo creata noi..) ma non c'è la stessa certezza sul cosa siamo noi.

quando la "siri" di turno sarà tanto avanzata da raggiungere livelli di ragionamento identici a quelli di un essere umano.. e quando questa "siri" prenderà autocoscienza raggiungendo quindi a tutti gli effetti lo status di essere vivente..Non so se hai notato, ma io non ho detto che è impossibile, ma che non c'è un granchè di impeto alla creazione di nuova vita artificiale per ragioni legali ed economiche.

E francamente avere autocoscienza è completamente irrilevante per il 99.99% degli utilizzi. Sono macchine, schiavi.
Non è necessario avere una vita ed una famiglia e che abbiano emozioni per fargli compiere il loro lavoro meglio e con più motivazione di un essere umano medio. Abbiamo accesso al programma, ricordi?

E la ragione economica principale la dici tu nella frase dopo:

Facile immaginare che come minimo pretenderà di essere trattata come tale.. si apriranno questioni "etiche" non da poco.

E tutti i soldi investiti nella sua creazione? Eeeeee...... ma mi sa proprio che fanno un restore dai backup.

il termine INTELLIGENZA non è del tutto spiegabile.Nel senso che la definizione di intelligenza è molto vaga.

Detto questo, secondo me, non si riuscirà mai a realizzare un qualcosa che ha una sua intelligenza identica o superiore a quella dell'essere umano.
Penso sia impossibile.Questo non ha senso a livello puramente concettuale.

Se non ammetti la presenza di entità soprannaturali come anime o cose così, basta che la tecnologia progredisca abbastanza da poter riprodurre fedelmente un cervello umano con i circuiti neurali corretti.

Se fai girare questa riproduzione fedele su un sistema artificiale, è solo una questione di tempo prima che l'hardware riesca a reggere ritmi di funzionamento più veloci di quelli di un cervello umano.

E questo senza tenere conto delle eventuali migliorie applicabili dopo che si è capito come funziona un dato circuito neurale.
Il cervello umano si è evoluto con FORTI limitazioni dal punto di vista dell'efficienza, più volte ci sono stati casi dove è stata preferita l'efficienza più stupida ad una intelligenza più dispendiosa.
Un sistema artificiale ha molte meno limitazioni da questo punto di vista.

demon77
14-01-2015, 13:17
Allora, a parte che il termine INTELLIGENZA non è del tutto spiegabile.

Detto questo, secondo me, non si riuscirà mai a realizzare un qualcosa che ha una sua intelligenza identica o superiore a quella dell'essere umano.
Penso sia impossibile.

Ricordiamoci che dalla scienza, all'informatica, alla medicina, ecc... tutto quello che è stato scoperto e si sta scoprendo ancora adesso è SEMPRE e SOLO scoperto dall'Uomo.

La macchina ti può aiutare dove metteresti piu tempo del necessario, ma le istruzioni, i miglioramenti e tutto il resto è sempre fatto dall'uomo.

no no. Su questo sono in completo disaccordo.
anzi è proprio il noccolo della questione, siamo in procinto di creare qualcosa che è più "furbo" di noi. Qualcosa che ci può battere sul nostro terreno.

Non è roba da poco.. e il fatto che un gruppo di scenziati illustri con a capo niente di meno che il prof. Hawking è un segnale tutt'altro che trscurabile.

demon77
14-01-2015, 13:20
Un programma è solo una serie di procedure rigide.(CUT)

:)
eh non ne so abbastanza.
Troppi argomenti e troppa carne al fuoco.. e io in materia ne so decisamente troppo poco..

Mi documenterò un po' meglio per chiearirmi le idee.

sbudellaman
14-01-2015, 14:15
Allora, a parte che il termine INTELLIGENZA non è del tutto spiegabile.

Detto questo, secondo me, non si riuscirà mai a realizzare un qualcosa che ha una sua intelligenza identica o superiore a quella dell'essere umano.
Penso sia impossibile.

Ricordiamoci che dalla scienza, all'informatica, alla medicina, ecc... tutto quello che è stato scoperto e si sta scoprendo ancora adesso è SEMPRE e SOLO scoperto dall'Uomo.

La macchina ti può aiutare dove metteresti piu tempo del necessario, ma le istruzioni, i miglioramenti e tutto il resto è sempre fatto dall'uomo.

Proprio perchè tutte le cose più incredibili l'uomo è riuscito a farle, magari riuscirà anche in questa.

mirkonorroz
14-01-2015, 16:37
Il punto e':
l'errore e' gia' stato fatto (almeno) una Volta. Perche' perseverare? Una spiegazione c'e', ma non la dico per finto rispetto. (Pero', infatti potrebbe non essere stato un errore).

Oldbiker
14-01-2015, 19:10
Da un lato mi trovo completamento d'accordo con lo spirito e le preoccupazioni della lettera.
Dall'altro, la AI, quella vera, con autocoscienza ecc ecc, sicuramente costituirebbe un salto evolutivo della nostra specie. Se potessimo vivere di pensieri ed emozioni, liberandoci dal fardello di un corpo abbastanza inutile, faremmo un bel salto nella qualità di vita. Quella sarà la vera AI: i nostri pensieri e sensi racchiusi in stati quantici...

Pier2204
14-01-2015, 20:35
Da un lato mi trovo completamento d'accordo con lo spirito e le preoccupazioni della lettera.
Dall'altro, la AI, quella vera, con autocoscienza ecc ecc, sicuramente costituirebbe un salto evolutivo della nostra specie. Se potessimo vivere di pensieri ed emozioni, liberandoci dal fardello di un corpo abbastanza inutile, faremmo un bel salto nella qualità di vita. Quella sarà la vera AI: i nostri pensieri e sensi racchiusi in stati quantici...

:eek: :eek:

Quel corpo abbastanza inutile è frutto di milioni di anni di evoluzione naturale, qui si sta perdendo il senso..

LMCH
14-01-2015, 21:26
Il problema principale è evitare di sviluppare AI volontariamente o involontariamente sociopatiche.

E' lo stesso problema che si ha con i dirigenti aziendali ed i governanti, se valutano le cose in termini di indicatori economici inevitabilmente prendono decisioni pessime sul lato umano ed alla lunga distruggono la loro stessa azienda o il loro paese
(tipo: con l'outsourcing si risparmia fino al punto che l'azienda diventa un guscio vuoto che poi viene rilevato da uno degli ex-fornitori).

bobafetthotmail
14-01-2015, 22:00
Troppi argomenti e troppa carne al fuoco.. e io in materia ne so decisamente troppo poco..Acc... scappata la scimmia nerd. :fagiano: Mi scuso per il tono ma la questione mi fa imbufalire per altre ragioni.

Se servono chiarimenti o link a qualche fonte più attendibile di me....

Il problema principale è evitare di sviluppare AI volontariamente o involontariamente sociopatiche.No, il problema è dare potere decisionale a qualcosa che non può essere ritenuta responsabile a livello legale.

Se poi si fidano ciecamente dei consigli di un AI-oracolo è un problema loro.

Quel corpo abbastanza inutile è frutto di milioni di anni di evoluzione naturale, qui si sta perdendo il senso.. non vedo come milioni di anni di evoluzione facciano la differenza. Ci sono limitazioni pesanti, poter trascendere quelle limitazioni sarebbe una figata.

LMCH
14-01-2015, 22:39
No, il problema è dare potere decisionale a qualcosa che non può essere ritenuta responsabile a livello legale.

Lo si fa già da millenni con persone e cose, l'unica differenza è il livello di autocoscienza di chi/cosa a cui si delega la decisione.

demon77
14-01-2015, 22:40
:eek: :eek:

Quel corpo abbastanza inutile è frutto di milioni di anni di evoluzione naturale, qui si sta perdendo il senso..

Faccio l'avvocato del diavolo.. e rispondo con riferimenti al mitico "MATRIX".

Volendo ben guardare.. il nostro corpo è solo lo strumento che ci consente di interagire col mondo.. e volendo dire potrebbe pure esserci tranquillamente di meglio.

E poi.. cos'è per noi il "MONDO" se non l'accumulo dei dati forniti dai nostri sensi?
Se come in matrix fossi connesso direttamente ad un mondo elettronico e non fisico noteresti davvero la differenza? e soprattutto, farebbe davvero differenza?

bobafetthotmail
14-01-2015, 22:56
Lo si fa già da millenni con persone e cose, l'unica differenza è il livello di autocoscienza di chi/cosa a cui si delega la decisione.Le persone sono repsonsabili per le decisioni che prendono.

Che decisioni vengono delegate a macchine attualmente? Non mi pare che ci siano delle gran scelte. Il max mi sembra che sia il tenere dei valori entro parametri prestabiliti.

Vestar
14-01-2015, 23:06
Speriamo bene!
Sarebbe un sogno per me.
Fin da quando sono piccolo, ho sempre avuto una passione per IA e cose simili.
Solo l'idea di pensare che possa esistere un Robot o un altro essere non organico, con intelligenza simile o superiore alla nostra, è una cosa che mi fa sbavare.

gsorrentino
14-01-2015, 23:33
Una cosa così?

https://www.youtube.com/watch?v=lyy7y0QOK-0

Oldbiker
15-01-2015, 01:27
:eek: :eek:
Quel corpo abbastanza inutile è frutto di milioni di anni di evoluzione naturale, qui si sta perdendo il senso..

E perché? Nelle discussioni a volte si lancia un sasso per innescare reazioni, pensieri e considerazioni. Il 35-40% dell'energia che siamo costretti a produrre per sopravvivere è deputata al cervello: francamente non mi spaventa una possibilità evolutiva come quella descritta.

Darkon
15-01-2015, 08:06
Le persone sono repsonsabili per le decisioni che prendono.

Che decisioni vengono delegate a macchine attualmente? Non mi pare che ci siano delle gran scelte. Il max mi sembra che sia il tenere dei valori entro parametri prestabiliti.

Sei serio? Ti faccio un breve elenco:

Vuoi un mutuo? Decide la macchina.
Vuoi un prestito? Decide la macchina.
Vuoi sapere che rating hai per poi valutare qualunque cosa finanziaria che ti riguarda? Decide la macchina.
Vuoi sapere come ti tratterò se vieni in banca? Decide la macchina.

Questo limitando il tutto a macro questioni che possono influenzare la vita di tutti i giorni.

Poi potrei parlarti di come una macchina può bloccarti arbitrariamente le carte, i fidi, condannare un intero gruppo aziendale sulla base che per X motivi non gli piaci più.

Poi ovvio esiste l'override umano che ha fatto (statisticamente) più danni che altro. La macchina nel 90% dei casi aveva ragione.

Oldbiker
15-01-2015, 09:43
Sei serio? Ti faccio un breve elenco:

Vuoi un mutuo? Decide la macchina.
Vuoi un prestito? Decide la macchina.
Vuoi sapere che rating hai per poi valutare qualunque cosa finanziaria che ti riguarda? Decide la macchina.
Vuoi sapere come ti tratterò se vieni in banca? Decide la macchina.
...(cut)


Nei casi da te prospettati, in realtà, non è la macchina che decide, ma il programma scritto dall'uomo.
Ben triste ( o lieto, dipende dal punto di vista personale) il giorno in cui la macchina, dotata di VERA AI, deciderà di concederti il mutuo, al di là di tutti i parametri negativi che ti riguardano, semplicemente perché, secondo lei, anzi essa, hai una faccia onesta...

demon77
15-01-2015, 10:29
Sei serio? Ti faccio un breve elenco:

Vuoi un mutuo? Decide la macchina.
Vuoi un prestito? Decide la macchina.
Vuoi sapere che rating hai per poi valutare qualunque cosa finanziaria che ti riguarda? Decide la macchina.
Vuoi sapere come ti tratterò se vieni in banca? Decide la macchina.

Questo limitando il tutto a macro questioni che possono influenzare la vita di tutti i giorni.

Poi potrei parlarti di come una macchina può bloccarti arbitrariamente le carte, i fidi, condannare un intero gruppo aziendale sulla base che per X motivi non gli piaci più.

Poi ovvio esiste l'override umano che ha fatto (statisticamente) più danni che altro. La macchina nel 90% dei casi aveva ragione.

no un attimo.
stiamo parlando di cose completamente su un altro livello. :)

cio che hai citato è un pc che segue un programma: ci sono i valori? Allora attiva procedura. La IA qun non c'entra nulla!

bobafetthotmail
15-01-2015, 10:58
Sei serio? Ti faccio un breve elenco:

Vuoi un mutuo? Decide la macchina.
Vuoi un prestito? Decide la macchina.
Vuoi sapere che rating hai per poi valutare qualunque cosa finanziaria che ti riguarda? Decide la macchina.
Vuoi sapere come ti tratterò se vieni in banca? Decide la macchina.
Eh? La "macchina" in questi casi fa solo dei calcoli e incrocia dei dati presenti in database, reagendo come definito in un algoritmo messo giù da qualcuno.
Se la macchina "sbaglia", sono i programmatori o i project manager che hanno gestito la sua costruzione/programmazione che sono responsabili (che poi non freghi a nessuno e si preferisca buttare gente sul lastrico è una questione diversa).
Perchè sono loro che hanno preso tutte le decisioni possibili e le hanno codificate nell'algoritmo.

Poi ovvio esiste l'override umano che ha fatto (statisticamente) più danni che altro.Se non si entra nel merito del chi ha fatto l'override e per che ragioni... no perchè se è stato un dirigente che ha fatto "favori" agli amici o se è stato qualcuno che effettivamente capiva cosa stava facendo non puoi trattare i casi allo stesso modo...
ma ovviamente nessun dirigente ammetterà mai di aver fatto favori.

La macchina nel 90% dei casi aveva ragione.Che è chiaramente meglio di quanto un dipendente medio possa fare, ma comunque resta vicino al meglio che può fare un team di super-esperti. Con un sistema automatico codifichi come agirebbero loro (visto che il programma/algoritmo è stato scritto appunto da un team di super-esperti, poi codificato dai programmatori).

Il punto qui è che probabilmente alla banca (suppongo sia una banca no?) non succede granchè se il sistema sbaglia.

Tutti i sistemi che devono essere affidabili perchè un errore potrebbe avere ripercussioni catastrofiche (sistemi di controllo di centrali e macchine industriali, sistemi militari, eccetera) hanno percentuali di affidabilità superiori al 99.9% Quindi scazzano o si rompono meno di 1 su mille volte, possibilmente meno.

E questo perchè la responsabilità legale dell'accaduto passa alla compagnia che aveva prodotto il pezzo/programma/chessò che si è rotto.
E quindi non sono tante le aziende che possono assumersi rischi del genere.

Quindi un sistema AI non si diffonde in ambiti seri se non dimostra di essere MOLTO affidabile.

cio che hai citato è un pc che segue un programma: ci sono i valori? Allora attiva procedura. La IA qun non c'entra nulla! Già. Un sistema AI effettua elaborazioni al di là della semplice lettura-esecuzione di istruzioni, ma resta il fatto che comunque per farlo sta leggendo-eseguendo istruzioni (sempre macchina è).

Cioè, è in grado di elaborare strategie per raggiungere obiettivi, e quindi riesce ad andare oltre il livello di intelligenza di chi l'ha programmata. Essa infatti segue sì delle istruzioni, ma queste sono legate al "come elaborare strategie" non al "come raggiungere obiettivi" (un computer standard è programmato per raggiungere obiettivi, cioè il programma/programmatore lo deve guidare passo passo e non ha la minima flessibilità). Quindi è una macchina programmata per pensare come un uomo, ma con la potenza di calcolo di una macchina.

Ovviamente visto che "elaborare strategie" per risolvere un problema in un ambito (esempio: trovare la strada di casa) è molto diverso che elaborare strategie per risolvere un problema in un altro ambito (altro esempio: progettare un edificio), un sistema AI non necessita di essere un generalista come un essere umano.
Quindi niente sentimenti, niente personalità, niente "umanità", se non gli servono specificamente nella sua mansione.

Per quanto essendo un programma non è particolarmente complesso fare un sistema modulare dove hai un programma AI dedicato all'interazione (diciamo Cortana) che si interfaccia ad altri sistemi AI specialistici ma che avrebbero 0 abilità relazionali (diciamo Bing)

il giorno in cui la macchina, dotata di VERA AI, deciderà di concederti il mutuo, al di là di tutti i parametri negativi che ti riguardano, semplicemente perché, secondo lei, anzi essa, hai una faccia onesta... I parametri che ci fanno decidere se qualcuno ha una faccia onesta o no sono abbastanza conosciuti quindi facilmente codificabili come backend di un programma di riconoscimento facciale come questo http://www.noldus.com/human-behavior-research/products/facereader
Il punto è che è ugualmente ben conosciuto il fatto che avere una faccia onesta non è correlato all'esserlo veramente.

Comunque non hai tutti i torti, un sistema di intelligenza artificiale più avanzato di quello in uso prenderebbe in esame molti più fattori meno palpabili e questa sua capacità apparirebbe alle masse come "sesto senso" o "intuizione".

Il punto è che se già gli va bene il sistema AI che hanno, non ha senso spendere miliardi per fare un sistema 10-100 volte più complesso.

antani_
15-01-2015, 11:08
Secondo me ci sono buone probabilità che lo sviluppo delle IA ci porti alla singolarità tecnologica, con conseguenze imprevedibili, tra cui una possibile è l'estinzione del genere umano.

Ho letto troppi romanzi e visto troppi film di fantascienza per non crederci :D !

wingman87
15-01-2015, 11:11
Eh? La "macchina" in questi casi fa solo dei calcoli e incrocia dei dati presenti in database, reagendo come definito in un algoritmo messo giù da qualcuno.
Se la macchina "sbaglia", sono i programmatori o i project manager che hanno gestito la sua costruzione/programmazione che sono responsabili (che poi non freghi a nessuno e si preferisca buttare gente sul lastrico è una questione diversa).
Perchè sono loro che hanno preso tutte le decisioni possibili e le hanno codificate nell'algoritmo.

Questo genere di programmi si chiamano sistemi esperti e sono una branca dell'intelligenza artificiale, quindi quello che hai scritto è solo parzialmente vero.

Darkon
15-01-2015, 11:21
Eh? La "macchina" in questi casi fa solo dei calcoli e incrocia dei dati presenti in database, reagendo come definito in un algoritmo messo giù da qualcuno.
Se la macchina "sbaglia", sono i programmatori o i project manager che hanno gestito la sua costruzione/programmazione che sono responsabili (che poi non freghi a nessuno e si preferisca buttare gente sul lastrico è una questione diversa).
Perchè sono loro che hanno preso tutte le decisioni possibili e le hanno codificate nell'algoritmo.

Se non si entra nel merito del chi ha fatto l'override e per che ragioni... no perchè se è stato un dirigente che ha fatto "favori" agli amici o se è stato qualcuno che effettivamente capiva cosa stava facendo non puoi trattare i casi allo stesso modo...
ma ovviamente nessun dirigente ammetterà mai di aver fatto favori.

Che è chiaramente meglio di quanto un dipendente medio possa fare. Con un sistema automatico codifichi come agirebbe uno dei migliori uomini con il massimo di esperienza possibile (visto che il programma/algoritmo è stato scritto appunto da un team di super-esperti, poi codificato dai programmatori).

Il punto qui è che probabilmente alla banca (suppongo sia una banca no?) non succede granchè se il sistema sbaglia.

Tutti i sistemi che devono essere affidabili perchè un errore potrebbe avere ripercussioni catastrofiche (sistemi di controllo di centrali e macchine industriali, sistemi militari, eccetera) hanno percentuali di affidabilità superiori al 99.9% Quindi scazzano o si rompono meno di 1 su mille volte, possibilmente meno.

E questo perchè la responsabilità legale dell'accaduto passa alla compagnia che aveva prodotto il pezzo/programma/chessò che si è rotto.
E quindi non sono tante le aziende che possono assumersi rischi del genere.

Ovvio non intendevo certo dire che c'è già l'IA autonoma ma il punto è che già adesso in qualche modo l'IA è superiore anche nella sua staticità.

Perchè? Perché se anche io fossi il dio della finanza ci sarà il giorno che ho mal di testa, il giorno che mi distraggo e clicco male o semplicemente un giorno in cui non noto un valore su 100.000 di un bilancio consolidato che però cambia tutto.

La macchina invece lavora tutti i giorni al massimo o non lavora. Il giudizio è uniforme e standard si attiene sempre alla normativa alla lettera. La macchina non sbaglia a calcolare un tasso.

Quindi sicuramente non è autonoma, almeno per ora, ma è comunque già adesso più efficiente. Dopotutto l'uomo ha una interferenza chiamata "sentimento" che in termini di efficienza è solo negativa. Parlando della mia esperienza non so quante volte ho visto gente investire soldi in base ai sentimenti del momento e questo porta a commettere errori.

La conclusione è che l'errore è intrinseco alla natura umana ed è quindi presumibile che una macchina per quanto statica sia già in una certa misura superiore all'uomo nel senso della massa. Una ipotetica macchina che avesse la capacità di autodeterminarsi e imparare dalle esperienze sarebbe talmente superiore da far sembrare l'uomo una forma di vita estremamente inferiore. Senza contare che l'assenza di sentimento la porterebbe a fare scelte evolutive molto più rapide e concrete permettendogli una auto-evoluzione su scale che una forma di vita biologica non potrebbe nemmeno immaginare.

aqua84
15-01-2015, 11:52
Se non ammetti la presenza di entità soprannaturali come anime o cose così, basta che la tecnologia progredisca abbastanza da poter riprodurre fedelmente un cervello umano con i circuiti neurali corretti.
Si, ti potrei dare ragione, a parte il fatto che la "tecnologia" progredisce, in fretta o meno, SOLO per MERITO dell'uomo.

Se lasci la tecnologia ferma in una stanza, da sola non fa un cavolo di niente.

Ripeto che secondo me non si riuscirà MAI a superare l'uomo.
Anche quando le macchine avranno raggiunto livelli altissimi, sempre grazie all'uomo, avranno sempre qualcosa in meno.

aqua84
15-01-2015, 11:59
La macchina invece lavora tutti i giorni al massimo o non lavora. Il giudizio è uniforme e standard si attiene sempre alla normativa alla lettera. La macchina non sbaglia a calcolare un tasso.
Ma capisci che la macchina lavora al massimo e si attiene alla normativa alla lettera proprio xchè l'uomo l'ha programmata per quello??

La macchina non sbaglia a calcolare un tasso non xchè è in gamba o intelligente, ma perchè l'uomo l'ha programmata.

E se la macchina sbaglia è per qualche errore meccanico o errore di programmazione sempre da parte dell'uomo.

Il corpo umano, nella sua interezza, è una macchina veramente incredibile, difficilmente riproducibile, se non eventualmente mediante clonazione.
Ecco, della Clonazione c'è da avere paura, non tanto dell'IA artificiale.

Basta solo vedere in quanti modi lo torturiamo (solo alcuni esempi, sigarette, alcol, incidenti vari, ecc..) eppure trova sempre il modo di andare avanti finchè può, rigenerandosi a volte. Semplicemente fantastico.

Darkon
15-01-2015, 12:09
Ma capisci che la macchina lavora al massimo e si attiene alla normativa alla lettera proprio xchè l'uomo l'ha programmata per quello??

La macchina non sbaglia a calcolare un tasso non xchè è in gamba o intelligente, ma perchè l'uomo l'ha programmata.

E se la macchina sbaglia è per qualche errore meccanico o errore di programmazione sempre da parte dell'uomo.

Il corpo umano, nella sua interezza, è una macchina veramente incredibile, difficilmente riproducibile, se non eventualmente mediante clonazione.
Ecco, della Clonazione c'è da avere paura, non tanto dell'IA artificiale.

Basta solo vedere in quanti modi lo torturiamo (solo alcuni esempi, sigarette, alcol, incidenti vari, ecc..) eppure trova sempre il modo di andare avanti finchè può, rigenerandosi a volte. Semplicemente fantastico.

Ovvio al momento non esiste macchina in grado di riprogrammarsi autonomamente.

Ma se un giorno l'uomo inventasse un programma in grado di apprendere e migliorarsi da solo discostandosi anche totalmente dal programma originale?

Alla fine il cervello umano è una reazione biochimica che in quanto tale una volta compresa si può riprodurre.

Una macchina che avesse una coscienza umana senza limiti biologici nel giro di pochi anni potrebbe auto-evolversi quanto l'uomo potrebbe fare solo un decine di migliaia di anni. Una mente instancabile, senza limiti, con capacità di calcolo esponenziale.

Senza contare che una ipotetica IA potrebbe scegliere di evolvere come mente alveare e non per forza mantenere l'individualità o addirittura fare una via di mezzo per massimizzare l'efficienza.

Insomma ci sono migliaia di possibilità ma sempre e comunque laddove la macchina fosse capace di pensare come un uomo senza i sentimenti umani diverrebbe estremamente superiore all'uomo in pochissimo tempo.

bobafetthotmail
15-01-2015, 12:12
Questo genere di programmi si chiamano sistemi esperti e sono una branca dell'intelligenza artificiale, quindi quello che hai scritto è solo parzialmente vero.Un sistema esperto fa un lavoro più difficile come predizione, diagnosi, interpretazione. C'è un pò di ragionamento, di logica, di analisi di fatti.

Qui mi sembra che sia solo un programma che compara dei dati presenti in un database ad altri presenti in un database, e assegnare un punteggio a seconda di varie regole predeterminate.
Certamente è molto complesso perchè lavora con moli di dati enormi e segue regole non proprio semplici (roba molto matematica suppongo), ma concettualmente non sta facendo niente di particolarmente complesso. Ha le sue istruzioni e le segue alla lettera.

Poi certo, non so esattamente che programma è, ma a occhio è questo quello che mi sembra.

Ovvio non intendevo certo dire che c'è già l'IA autonoma ma il punto è che già adesso in qualche modo l'IA è superiore anche nella sua staticità.Quello che volevo dire è che quel sistema non è un AI.
Come detto nel post sopra rispondendo a demon77, un AI si distingue da un programma normale perchè per raggiungere gli obiettivi deve "ragionare", fare prove e sviluppare strategie per i fatti suoi.
Come detto sopra, non mi sembra che il lavoro che deve fare necessiti della capacità di creare strategie autonomamente.

La macchina invece lavora tutti i giorni al massimo o non lavora. Il giudizio è uniforme e standard si attiene sempre alla normativa alla lettera. La macchina non sbaglia a calcolare un tasso.Non credo che tu abbia capito il punto. Non parlo di efficienza, ma di affidabilità e paraculismo.

se mi dici che l'affidabilità di una macchina è del 90% vuol dire che 1 volta su dieci sbaglia.

Quindi una macchina del genere va bene in ambiti dove anche in caso di errore non succede un granchè. In banca sembra che vada benissimo, ma del resto prima andavano benissimo anche degli impiegati che al 90% non ci arrivavano neanche dopo sacrifici umani a Chtulu quindi...

Ma non va affatto bene in ambiti dove è richiesta una affidabilità molto maggiore, OPPURE di avere un capro espiatorio per pararsi il culo.

Esempio pratico: macchinisti dei treni.
Sono fondamentalmente inutili e facilmente rimpiazzabili con un computer e dei sensori vari + transponder per i treni e roba varia che renderebbe il sistema MOLTO più affidabile in qualsiasi condizione atmosferica.

Ma c'è un però.

Tutte le volte che succede un casino con dei treni chi si prende la colpa?
Bum, sempre errore umano. In molti casi ci rimette anche la pelle quindi non può neanche difendersi. Ottimo dal punto di vista del paraculo di turno.
Il secondo motivo è di solito un guasto tecnico delle infrastrutture varie, ma lì è lo stato quindi chissenefrega, tanto non abbiamo le class action.

Se succedesse un casino con un treno senza pilota umano (e con tecnologia nuova fornita da terzi) chi la prende la colpa? Se è un errore del sistema allora partono le cause per danni al fornitore e lì son cazzi.

Non sto dicendo che un sistema AI è più affidabile (molto probabilmente no, un AI è più potente, non più affidabile), e neanche che un essere umano è più efficiente (sarebbe una bestemmia).

Sto dicendo che ci sono molti ambiti, e il governo di un paese è uno di questi, dove è richiesto che il sistema sia veramente quasi infallibile o che ci sia un capro espiatorio pronto ad affondare con la nave e parare il didietro a chi di dovere.

Una macchina non è un buon capro espiatorio (perchè si limita a rigirare la colpa sui costruttori, che quindi hanno poco incentivo a produrre e commercializzare il prodotto), un uomo sì.

l'uomo ha una interferenza chiamata "sentimento" che in termini di efficienza è solo negativa. Parlando della mia esperienza non so quante volte ho visto gente investire soldi in base ai sentimenti del momento e questo porta a commettere errori.Le emozioni sono l'unica motivazione a fare qualsiasi cosa.
Se c'è gente che ragiona coi piedi non è colpa certo delle emozioni.

Un sistema artificiale che deve sopravvivere in un ambiente come l'essere umano deve essere dotato di alcuni obiettivi irrazionali o irraggiungibili o senza condizioni di fine, proprio come l'uomo.

Sennò si ferma quando ha completato tutti i compiti assegnati.

Perchè comunque... resta una macchina. Proprio come noi lol.

bobafetthotmail
15-01-2015, 12:57
Si, ti potrei dare ragione, a parte il fatto che la "tecnologia" progredisce, in fretta o meno, SOLO per MERITO dell'uomo.Fino a quel punto certamente. Ma da quel punto in poi le macchine che crei possono prendere il posto di un essere umano, in quanto copie del cervello quindi mente umana.

O mi vuoi dire che una copia abbastanza accurata del cervello umano non è in grado di compiere le stesse attività di un cervello umano?

O che mi servono anche altre parti del corpo per pensare?

Comunque questo è un caso limite perchè dici che è "completamente impossibile", non è necessario copiare pari pari il cervello umano per fare una AI, per fortuna. Non siamo in Halo.

Se lasci la tecnologia ferma in una stanza, da sola non fa un cavolo di niente.Se sai contare fino a sette non vuol mica dire che l'otto non possa esistere. (cit. Jovannotti) :D

La tecnologia attuale non sa pensare, una AI è progettata per farlo. Se si vuole un sistema autonomo decente ci vuole una AI perchè non è umanamente possibile codificare ogni singola situazione possibile ed immaginabile in un programma tradizionale.
Devi per forza programmare una macchina per pensare come un uomo, solo così può cavarsela da sola veramente (o fare qualcosa che richieda intelligenza ma ad un livello troppo elevato per un essere umano). Ma poi quello che pensa (le strategie che elabora) per raggiungere un obiettivo è solo un prodotto del tuo programma, non lo hai scritto tu, e questo gli permette di essere flessibile e adattarsi a situazioni varie.

Le limitazioni attuali non sono dovute a leggi fisiche, quindi non vedo perchè sia impossibile fare di meglio.

Il corpo umano, nella sua interezza, è una macchina veramente incredibile, difficilmente riproducibile, se non eventualmente mediante clonazione.Da un punto di vista puramente tecnico, un AI deve solo saper pensare come fa un essere umano. Del resto del corpo non importa molto in questo contesto.

Per fortuna non è necessario il livello di complessità che c'è nell'uomo/animali/vita in generale.

Molta della complessità è dovuta al fatto che un essere vivente deve essere in grado di trovare energia e materiali per ripararsi, crescere e riprodursi in modo relativamente autonomo (si deve comunque appoggiare ad un ecosistema) in un ambiente relativamente ostile (ma non troppo).

Un sistema artificiale non ha queste necessità. Almeno al momento.

Cavallaudo
19-01-2015, 16:24
Mah. io tutto sto taglio catastrofista non lo vedo.

Certo, probabilmente perche tu non sei hawkins o musk e non hai accesso a chissa che fonti e informazioni che invece loro hanno e li fan essere catastrofisti...

Io se penso che 2 personaggi del genere si sono esposti in questo modo, chissa quanto sanno e non possono divulgare...

bobafetthotmail
20-01-2015, 10:32
Certo, probabilmente perche tu non sei hawkins o musk e non hai accesso a chissa che fonti e informazioni che invece loro hanno e li fan essere catastrofisti...Nella lettera in inglese linkata nell'articolo hanno usato termini che mi portano a pensare molto di più che volessero dire "la ricerca AI finora è stata troppo fine a se stessa, vogliamo che sia più focalizzata nel fare qualcosa di utile".
E non che volessero dire "rischiamo di creare AI fuori controllo che ci uccidono tutti aiuto aaaaaaaa"

Il pezzo saliente è questo (spezzato con traduzione):

The progress in AI research makes it timely to focus research not only on making AI more capable, but also on maximizing the societal benefit of AI.Il tempo è giunto per focalizzare la ricerca non nel rendere un sistema AI più potente ma nel massimizzare i benefici della ricerca in campo AI sulla società umana.

Such considerations motivated the AAAI 2008-09 Presidential Panel on Long-Term AI Futures and other projects on AI impacts, and constitute a significant expansion of the field of AI itself, which up to now has focused largely on techniques that are neutral with respect to purpose.Queste considerazioni sono state esposte in un documento bla bla bla, e rappresentano una significativa espansione del campo di ricerca sulla AI, che fino ad ora si è focalizzata su tecniche che non hanno uno scopo reale ben definito (traduzione letterale "neutrali dal punto di vista dello scopo")

We recommend expanded research aimed at ensuring that increasingly capable AI systems are robust and beneficial: our AI systems must do what we want them to do. Raccomandiamo che sistemi AI siano sì più potenti ma anche utili: devono fare quello che vogliamo che facciano.

Quest'ultima frase è l'unica secondo me che potrebbe essere interpretata come "rischiamo di creare AI fuori controllo che ci uccidono tutti aiuto aaaaaaaa", ma alla luce delle altre due precedenti mi sembra che il tono non sia quello.

Ovviamente c'è la tendenza forte a distorcere l'informazione per fini sensazionalistici, come ad esempio nell'articolo qui su HW upgrade.

Oldbiker
21-01-2015, 02:19
Nella lettera in inglese linkata nell'articolo hanno usato termini che mi portano a pensare molto di più che volessero dire "la ricerca AI finora è stata troppo fine a se stessa, vogliamo che sia più focalizzata nel fare qualcosa di utile".
E non che volessero dire "rischiamo di creare AI fuori controllo che ci uccidono tutti aiuto aaaaaaaa"

Il pezzo saliente è questo (spezzato con traduzione):

...(cut)...


Hai tralasciato questo:
Because of the great potential of AI, it is important to research how to reap its benefits while avoiding potential pitfalls
A causa del grande potenziale della AI, è importante ricercare come raccoglierne i benefici, evitandone le potenziali insidie.

In più, forse, non hai avuto la pazienza di leggere il vero documento:
http://futureoflife.org/static/data/documents/research_priorities.pdf

E' qui che pone i potenziali problemi di cui si sta parlando in questa sede.

bobafetthotmail
21-01-2015, 08:39
Hai tralasciato questo:
Because of the great potential of AI, it is important to research how to reap its benefits while avoiding potential pitfalls
A causa del grande potenziale della AI, è importante ricercare come raccoglierne i benefici, evitandone le potenziali insidie.Perchè è generico. Tutte le cose potenti hanno insidie. Energia nucleare, computer tradizionali, comunissime automobili....

In più, forse, non hai avuto la pazienza di leggere il vero documento:
http://futureoflife.org/static/data/...priorities.pdf

E' qui che pone i potenziali problemi di cui si sta parlando in questa sede.Nella maggioranza del documento si parla dell'impatto dei sistemi AI in vari aspetti, di che etica/leggi debbano seguire i sistemi autonomi (cioè quanto valore devono dare a sè stessi quando devono scegliere se subire danni loro o infliggerne ad una persona), di mettere giù leggi che permettano l'utilizzo di sistemi autonomi come auto senza pilota senza che in caso di incidente partano cause contro i produttori.
Di avere sistemi di controllo qualità e test adatti alle responsabilità che vengono affidate alla macchina, perchè il livello di qualità standard dei firmware dei prodotti fa in generale schifo (e lo dicono anche loro), e questo è inaccettabile per un sistema autonomo o per un sistema di predizione.
E fin qui sono problemi seri e importanti. Un sistema AI scritto da cani e testato peggio può tranquillamente fare danni e morti, ma non va molto oltre l'eseguire in modo sbagliato le sue mansioni.

Nelle considerazioni per un futuro lontano parlano di macchine che potrebbero evolversi molto rapidamente "intelligence explosion" e sviluppare superintelligenza, parlano di scetticismo e di chiedersi se è possibile o no. Considerando che non si hanno neanche dei sistemi autonomi decenti, queste considerazioni sono poco più di filosofia al momento perchè mancano le basi.
C'è una differenza tra un dubbio legittimo per un futuro distante e un rischio reale.