Imagen: ecco l'Intelligenza Artificiale di Google che crea immagini dal testo con risultati fortemente realistici

Imagen: ecco l'Intelligenza Artificiale di Google che crea immagini dal testo con risultati fortemente realistici

Da una descrizione viene generata un'immagine fotorealistica: Imagen è l'AI di Google capace di produrre immagini da testo che si è mostrata più convincente rispetto ad altri modelli simili

di pubblicata il , alle 17:01 nel canale Scienza e tecnologia
Google
 

Google ha presentato un sistema di intelligenza artificiale capace di creare immagini partendo da una descrizione testuale: Imagen, questo il nome dell'AI, sarebbe capace, secondo il Brain Team di Google Research, di offrire "un grado di fotorealismo senza precedenti e un profondo livello di comprensione del linguaggio".

I ricercatori di Google hanno voluto valutare Imagen rispetto ad altri modelli AI text-to-image (come ad esempio DALL-E 2, VQ-GAN+CLIP e Latent Diffusion Models) creando un benchmark chiamato DrawBench che fornisce a ciascun modello 200 messaggi di testo da cui trarre un'immagine che sarà valutata ciascuna da operatori umani. Questo processo ha stabilito che Imagen risulta migliore sia nei confronti affiancati, sia nella qualità del singolo campione quanto ad accuratezza tra testo e immagine.

Imagen non è disponibile al pubblico poiché Google non ritiene sia ancora adatto per l'uso generale per una serie di motivi. I modelli text-to-image vengono generalmente allenati su grandi set di dati prelevati direttamente dal Web, il che può introdurre svariati problemi.

"Sebbene questo approccio abbia consentito rapidi progressi algoritmici negli ultimi anni, set di dati di questa natura spesso riflettono stereotipi sociali, punti di vista oppressivi e associazioni dispregiative, o comunque dannose, a gruppi di identità emarginati. Mentre un sottoinsieme dei nostri dati di allenamento è stato filtrato per rimuovere il rumore e i contenuti indesiderati, come immagini pornografiche e linguaggio tossico, abbiamo anche utilizzato il set di dati LAION-400M, che è noto per contenere un'ampia gamma di contenuti inappropriati tra cui immagini pornografiche, insulti razzisti e stereotipi sociali dannosi" spiegano i ricercatori.

Il Brain Team di Google Research sottolinea inoltre che Imagen ha ereditato i "pregiudizi sociali e i limiti dei modelli linguistici di grandi dimensioni e potrebbe presentare stereotipi e rappresentazioni dannose". E, oltre alla rappresentazione di stereotipi di genere, uno strumento del genere nelle mani del pubblico più ampio, senza alcun tipo di controllo, potrebbe essere utilizzato in maniera impropria.

Attualmente, però, si può provare Imagen in forma limitata, scegliendo da un insieme di frasi che possono essere combinate insieme. Sul sito di Imagen è inoltre possibile visualizzare vari esempi di quanto l'IA sia stata in grado di produrre. E' opportuno osservare che i risultati mostrati sul sito ufficiale di Imagen sono selezionati, e potrebbero essere il meglio tra le migliori immagini generate dal modello.

19 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
CrapaDiLegno26 Maggio 2022, 10:08 #1
La cosa interessante di questi esperimenti sta nel prevenire il loro "uso pubblico per impatto sociale".
FOrse fa capire meglio alle persone che queste AI non sono per nulla intelligenti, ma creano solo un bieco risultato a una serie di addestramenti, non differentemente da come si possa insegnare ad un cane ad ubbidire tramite il metodo premio-punizione.
La cosa fondamentale da capire è che cosa sia giusto (premio) o sbagliato (punizione) lo decide che addestra queste AI, e quindi il risultato sarà sempre BIASed in qualche modo.
Bisogna capre che quello che la AI deve o non deve produrre, o anche come, lo decide chi addestra. Capito questo, si capisce che le AI non sono "esseri intelligenti" a cui demandare decisioni.
Sarebbe come farlo fare a un bambino indottrinato per anni ad una visione parziale della realtà (ed è sempre così, perché come detto premio/punizione è deciso da chi addestra e quindi da quello che è il SUO bagaglio culturale)
Non esiste una realtà assoluta indipendente dall'educazione che abbiamo ricevuto.

Pensateci la prossima volta che qualcuno propone che una IA prenda una decisione perché così si rispetta la neutralità di qualcosa/qualcuno/idea/pensiero.

E' un argomento che diventerà importante nei prossimi ani, quando delegheremo alla AI un sacco di decisioni, compreso come comportarsi per evitare incidenti sulle strade
Uccido lo stupido bambino che ha attraversato senza guardare a un metro dall'auto o il schianto l'auto con l'incolpevole guidatore contro l'albero?
In un incidente grave con molte persone coinvolte, salvo il magnate miliardario di 70 anni o il giovane ventenne squattrinato? E perché no, magari nella AI c'è stampata una bella opzione "if Elon is recognized in a disaster, save him despite all others", cosa ne possiamo sapere noi?
O anche peggio, perché tra un po' avverrà anche questa cosa, pensate ad una AI che decide chi operare o meno in base alla probabilità di sopravvivenza.
Decisioni del genere non sono "neutrali". Chi decide i criteri di quale sia il miglior risultato (premio) è sempre l'uomo.
Uakko26 Maggio 2022, 11:25 #2
Originariamente inviato da: CrapaDiLegno
La cosa interessante di questi esperimenti sta nel prevenire il loro "uso pubblico per impatto sociale".
FOrse fa capire meglio alle persone che queste AI non sono per nulla intelligenti, ma creano solo un bieco risultato a una serie di addestramenti, non differentemente da come si possa insegnare ad un cane ad ubbidire tramite il metodo premio-punizione.
La cosa fondamentale da capire è che cosa sia giusto (premio) o sbagliato (punizione) lo decide che addestra queste AI, e quindi il risultato sarà sempre BIASed in qualche modo.
Bisogna capre che quello che la AI deve o non deve produrre, o anche come, lo decide chi addestra. Capito questo, si capisce che le AI non sono "esseri intelligenti" a cui demandare decisioni.
Sarebbe come farlo fare a un bambino indottrinato per anni ad una visione parziale della realtà (ed è sempre così, perché come detto premio/punizione è deciso da chi addestra e quindi da quello che è il SUO bagaglio culturale)
Non esiste una realtà assoluta indipendente dall'educazione che abbiamo ricevuto.

Pensateci la prossima volta che qualcuno propone che una IA prenda una decisione perché così si rispetta la neutralità di qualcosa/qualcuno/idea/pensiero.

E' un argomento che diventerà importante nei prossimi ani, quando delegheremo alla AI un sacco di decisioni, compreso come comportarsi per evitare incidenti sulle strade
Uccido lo stupido bambino che ha attraversato senza guardare a un metro dall'auto o il schianto l'auto con l'incolpevole guidatore contro l'albero?
In un incidente grave con molte persone coinvolte, salvo il magnate miliardario di 70 anni o il giovane ventenne squattrinato? E perché no, magari nella AI c'è stampata una bella opzione "if Elon is recognized in a disaster, save him despite all others", cosa ne possiamo sapere noi?
O anche peggio, perché tra un po' avverrà anche questa cosa, pensate ad una AI che decide chi operare o meno in base alla probabilità di sopravvivenza.
Decisioni del genere non sono "neutrali". Chi decide i criteri di quale sia il miglior risultato (premio) è sempre l'uomo.


Non sono IA, è Machine Learning.
CrapaDiLegno26 Maggio 2022, 12:20 #3
Ora la domanda è d'obbligo: cosa è l'IA e perché questa cosa che si chiama Machine Learning non lo è.
rigelpd26 Maggio 2022, 12:25 #4
E' una figata la scoperta che allenare una IA in due media differenti aumenta enormemente le prestazioni anzichè allenarla solo su uno dei due.
Secondo me si stà scoprendo qualcosa di importante qui, qualcosa che ci porterà molto più vicini ad una AGI
gsorrentino26 Maggio 2022, 13:09 #6
Originariamente inviato da: CrapaDiLegno
La cosa interessante di questi esperimenti sta nel prevenire il loro "uso pubblico per impatto sociale".
.....
Sarebbe come farlo fare a un bambino indottrinato per anni ad una visione parziale della realtà (ed è sempre così, perché come detto premio/punizione è deciso da chi addestra e quindi da quello che è il SUO bagaglio culturale)
Non esiste una realtà assoluta indipendente dall'educazione che abbiamo ricevuto.
....
Decisioni del genere non sono "neutrali". Chi decide i criteri di quale sia il miglior risultato (premio) è sempre l'uomo.


Farei notare che il 95% delle decisioni degli uomini rispecchiano il caso di cui hai paura...quindi non cambierebbe molto visto che gli stessi uomini che prendono decisioni sono "addestrati" da altri uomini.
acerbo26 Maggio 2022, 13:55 #7
Originariamente inviato da: gsorrentino
Farei notare che il 95% delle decisioni degli uomini rispecchiano il caso di cui hai paura...quindi non cambierebbe molto visto che gli stessi uomini che prendono decisioni sono "addestrati" da altri uomini.


e la maggior parte di essi sono molto piu' stupidi sia del cane addestrato che della macchina
CrapaDiLegno27 Maggio 2022, 09:53 #8
Originariamente inviato da: gsorrentino
Farei notare che il 95% delle decisioni degli uomini rispecchiano il caso di cui hai paura...quindi non cambierebbe molto visto che gli stessi uomini che prendono decisioni sono "addestrati" da altri uomini.


Sì, ma una decisione presa da un uomo si sa essere arbitraria. Per questo, in caso una decisione provoca danno ad un altro, ci sono i tribunali che devono decidere se la decisione è "giusta" o "sbagliata" in assoluto (e a freddo, spesso non si considera la questione "a caldo", cioè quando l'istinto può prevalere sulla ragione).

Ma se una decisione la prende una AI, che valore ha? Puoi sempre considerarla giusta? E se no, ha sbagliato perché non aveva sufficienti elementi per prendere una decisione migliore o l'ha fatto perché qualcuno l'ha addestrata affinché si comportasse così comunque?
Nel secondo caso, la colpa ricade sull'"istruttore" della IA (la società che l'ha prodotta)?
Visto che si vuole far il paragone con le scelte prese dagli uomini, se a scuola guida mi hanno detto che devo fregarmene dei limiti di velocità e poi facendolo stiro uno, posso scaricare al colpa sul mio istruttore di scuola guida perché mi ha addestrato male?
Se uno è un delinquente perché i propri genitori lo erano, la colpa è dei genitori e basta? Come si punisce una IA che ha preso una decisione sbagliata? Ci si potrà ancora fidare di lei per le scelte future? Se no, cosa facciamo, la spegniamo? E se fosse la IA equamente addestrata che è parte di un parco auto a guida autonoma? Si lasciano tutte ferme finché qualcuno non torna con una AI addestrata meglio? Meglio in che modo? Chi controlla? Con quali competenze? Le si fa fare un test di guida come quando hai presi tu la patente per vedere se è programmata correttamente? Oppure la valutazione delle capacità di un uomo è diversa rispetto ad una IA? Se sì perché? Non devono fare lo stesso lavoro? A te, a scuola guida hanno fatto la prova del bambino che ti attraversa la strada per vedere se sceglievi di morire tu o stiravi il bambino? La IA dovrebbe essere messa alla prova per questi casi?

Come vedi le domande sono infinite e io non le trovo banali. E non ho messo nulla riguardante decisioni che riguardano aspetti di tipo politico, sociale, razziale, appartenenza di sesso.. per esempio le donne devono avere un carico di lavoro inferiore o no rispetto agli uomini? Se si, devono essere pagate uguali o no? Devono avere più giorni liberi per i figli o famiglia? Se sì, pagate sempre uguali o meno? Se è sempre tutto sì, e la AI deve scegliere un candidato per aggiungendo un parametro di potenziale rapporto efficienza/costi, la frittata è fatta, nessuna donna entrerà nei primi posti della graduatoria.

Se si delegherà sempre più decisioni alle IA, decisioni che possono comportare danni a cose e/o persone o possono semplicemente influenzare la vita di altri, saranno cose che prima o poi bisognerà affrontare.

Già qui per una sciocca* applicazione che crea immagini si sono già alzati muri per difendere la "decenza" ed evitare che qualcuno si offenda. Figuriamoci per gli esempi, comunque banali, che ho descritto io.

*sciocca nel senso del risultato che poi sforna, non certo nella sua implementazione che è di tutto rispetto, anche se mi piacerebbe vedere più di 20 immagini preselezionate a cui posso accedere tramite un albero binario di scelte.

P.S: e in più neanche tutte le immagini sono corrette, perché se scegli il cane sul prato con la chitarra... poi nell'immagine NON HA LA CHITARRA, aahahahah.
TorettoMilano27 Maggio 2022, 10:07 #9
e poi google apre il servizio "con 5 euro ti crei l'immagine che vuoi" e diventa l'azienda più ricca del mondo
maxnaldo27 Maggio 2022, 10:57 #10
comunque mi fa un po' ridere che si preoccupino tanto del fatto che una IA potrebbe imparare tutto ciò che c'è di umano in senso negativo: stereotipi, razzismo, pornografia, punti di vista oppressivi o dispregiativi, ecc...

Se è un'intelligenza artificiale dovrà apprendere anche tutto questo, e imparare a capire cosa sia giusto e cosa sia sbagliato. Altrimenti come IA rimarrà al livello di un bimbo di 5 anni.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^