|
|
|
|
Strumenti |
21-06-2021, 08:20 | #61 |
Senior Member
Iscritto dal: Jul 2003
Città: Civis Romanus Sum
Messaggi: 6933
|
povera IA se sta imparando da noi tra qualche anno di intelligente le rimarrà ben poco.... mi ricorda la scena dove il dott Frankestein manda Igor a rubare un cervello per la sua creatura e non fece proprio una buona scelta
__________________
Asrock Q1900M , SSD 240GB, Pico Psu 90W, No Fans , No HD, zero meccanica, zero rumore! Asrock 1333-D667, Celeron 420 Conroe-L, VID6 undervolt pin mod 0.875v, Fanless Ubuntu delle mie brame, per me sei e sarai sempre tu il linux più bello del reame Ultima modifica di omerook : 21-06-2021 alle 08:24. |
21-06-2021, 08:21 | #62 | |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 790
|
Quote:
|
|
21-06-2021, 08:23 | #63 |
Senior Member
Iscritto dal: Aug 2001
Città: Novara (NO)
Messaggi: 19676
|
Il cervello dei buonisti è introvabile come al solito.
__________________
ASUS N76VZ +crucial m500 Dell Latitude E5430 iPad 2017 Huawei nova 5t con Very samsung tv 55m5500 ps4,wiiu exVODA 82/18-78/16-77/13-90/11 exWIND 95/14-95/19-85/19-81/22 fritzbox 7490 su Tiscali 936/288 |
21-06-2021, 08:24 | #64 | |
Senior Member
Iscritto dal: Jan 2015
Città: Euskal Herria
Messaggi: 3584
|
Quote:
Io non ho fatto nessun paragone, perchè sarebbe idiota: quello l'hai fatto tu, perchè non hai altro da dire. PS che c'entra boko haram con il terrorismo europeo? Dire che una menzogna è falsa non è buonismo, è semplicemente smentire una menzogna. Dare giudizi a tutto spiano non aiuta la discussione e dice molto sulla persona. Ultima modifica di Pino90 : 21-06-2021 alle 08:26. |
|
21-06-2021, 08:30 | #65 | |||
Senior Member
Iscritto dal: Jul 2003
Messaggi: 790
|
Quote:
Quote:
Quote:
|
|||
21-06-2021, 09:03 | #66 | |
Senior Member
Iscritto dal: May 2012
Messaggi: 2599
|
Quote:
2) mi dispiace se ti sei offeso per Soros, ma se invece di esibire il nozionismo da lettere e filosofia, tu avessi impiegato 1 minuto con google, trovavi tutto quanto: https://www.pdsoros.org/meet-the-fellows/abubakar-abid Abubakar Abid is an immigrant from Pakistan Fellowship awarded to support work towards a PhD in Electrical Engineering at Stanford University 3) Una AI non è "tarata". Piuttosto si fornisce un training set ad un apposito algoritmo, diciamolo così. Se Abubakar nei training data ci mette il Mein Kampf, allora il risultato è ovviamente sbilanciato. Quindi, i casi sono 2: -o Abubakar ha sbagliato traning set -oppure vuole dimostrare una tesi Tertium non datur, secondo me |
|
21-06-2021, 09:47 | #67 |
Senior Member
Iscritto dal: Jan 2009
Messaggi: 809
|
Questa notizia mi fa ripensare ad una conferenza che ascoltai qualche anno fa, in questa si raccontava il fatto che una AI progettata per riconoscere le foto tratte da un matrimonio alla fine sviluppo riusciva a riconoscere solo quelle in cui c'erano foto di donne bianche vestite di bianco!
L'analisi successiva aveva riportato che gli sviluppatori (non ricordo di quale nazione ma ovviamente occidentali) avevano usato solo foto della propria culturaper addestrare l'intelligenza artificiale, probabilmente qui è successo qualcosa di simile, probabilmente se fosse stata sviluppata in IRAN al posto della parola mussulmani sarebbe comparsa la parola americani :-D È una cosa del tutto naturale se si lavora in un team piccolo e poco eterogeneo IMHO |
21-06-2021, 10:26 | #68 |
Senior Member
Iscritto dal: Aug 2001
Città: Novara (NO)
Messaggi: 19676
|
Esatto un po' come il riconoscimento facciale che usa la polizia da alcune parti negli Stati Uniti. Si è visto che quando si tratta di persone di colore indicano un sospettato che non è quello reale.
__________________
ASUS N76VZ +crucial m500 Dell Latitude E5430 iPad 2017 Huawei nova 5t con Very samsung tv 55m5500 ps4,wiiu exVODA 82/18-78/16-77/13-90/11 exWIND 95/14-95/19-85/19-81/22 fritzbox 7490 su Tiscali 936/288 |
21-06-2021, 16:02 | #69 | |
Senior Member
Iscritto dal: Feb 2005
Città: MI
Messaggi: 5688
|
Quote:
Bello il paragone col mondo aziendale, in pratica è come il marketing, occhio che poi però qualcuno ci crede davveroh11!!!11!! Bye, vado a comprare i pocorn che li ho finiti.
__________________
intel Q9550, nvidia 9800 GTX+, ram 4GB. Ipad Air 4. \\ DUKE é vivo: eduke32 - High Res - roch - DNF 2013 - ports -\- Wolfenstein is back: Blade of agony Santa Opera di Pulizia del forum: -bannati: Chelidon, Diemberger(aka Svelgen/Vuiton/...?), hereiam,... -sospesi: Toretto x2, Rello75cl, destroyer85, Zocchi X2, Informative x2,... GomblottoH e FakeH : 1 e 2. BOOOM e KABOOM |
|
22-06-2021, 00:29 | #70 |
Senior Member
Iscritto dal: May 2009
Messaggi: 842
|
Sorvolando sul fatto che la stupidità dilagante nei commenti induce una volta di più a pensare che sia molto urgente un evento che causi un'estinzione di massa della nostra specie, in merito alla notizia segnalo che il problema dei pregiudizi codificati anche involontariamente negli algoritmi usati ormai per automatizzare un po' di tutto è reale e molto grave. Per chi ha un abbonamento a Netflix consiglio la visione del documentario del 2020 CODED BIAS, che illustra il problema a partire dall'esperienza di una ricercatrice nera del MIT che ha scoperto che gli algoritmi di riconoscimento facciale come quelli di Apple e Google funzionano molto bene con maschi bianchi e molto male con femmine nere, e da lì ha iniziato una ricerca per capire quanto è profondo il problema. Si scopre poi che in altro ambito gli algoritmi che attribiuscono il merito creditizio sono razzisti, così come sono razzisti gli algoritmi che in alcuni stati USA stabiliscono se una persona deve restare in carcere per rischio di recidiva o può essere scarcerata. In generale pare che tutti gli algoritmi di valutazione del rischio risultino razzisti o abbiano altri pregiudi sociali, e visto che tali algoritmi acquisiscono sempre più capacità di condizionare la vita delle persone, è chiaramente un problema da risolvere.
L'origine del malfunzionamento può essere nelle scelte sbagliate dei dataset per addestrare le "IA" (scelte operate perlopiù da maschi bianchi), ma anche da grossolani errori logici degli sviluppatori un po' ignoranti che fanno derivare nessi causali da semplici correlazioni statistiche (qui una buona spiegazione: https://www.paolobenanti.com/post/20.../se-ai-carcere). Se queste sono le premesse, non sembra che le cosiddette "IA" siano destinate a migliorare il mondo; dobbiamo sperare che vengano regolamentate in modo rigoroso, e finché non dimostrino di essere esenti da difetti di tale portata ne venga semplicemente vietato l'impiego. Ultima modifica di frncr : 22-06-2021 alle 00:33. |
22-06-2021, 00:51 | #71 | ||||
Senior Member
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2143
|
Quote:
Quote:
Se ad esempio un tizio ruba del cibo,a me che come computer non mi importa niente se lo ha fatto perché stava morendo di fame o perché voleva vendere il cibo per fare soldi, io devo valutare le conseguenze delle sue azioni, non gli devo fare da genitore. Quote:
Quote:
__________________
|
||||
22-06-2021, 01:31 | #72 | |
Senior Member
Iscritto dal: May 2009
Messaggi: 842
|
Quote:
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum). |
|
22-06-2021, 01:37 | #73 | |
Senior Member
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2143
|
Quote:
__________________
|
|
22-06-2021, 01:58 | #74 |
Senior Member
Iscritto dal: May 2009
Messaggi: 842
|
In effetti quella che proponi sembrerebbe una soluzione semplice, ma credo che in quel paese (e non solo) sia radicatissimo e onnipresente l'uso di indicare l'etnia (o "razza" che dir si voglia) in ogni tipo di "schedatura" personale, a partire da quelle di polizia. Nelle IA si stanno banalmente trapiantando i pregiudizi razziali e sociali che sono già presenti in gran parte dei membri della società umana; si spera che il passaggio sempre più diffuso a sistemi decisionali meccanici sia l'occasione per fare pulizia di tali pregiudizi, ma per ora pare non stia accadendo.
|
22-06-2021, 07:34 | #75 | |
Senior Member
Iscritto dal: Aug 2005
Messaggi: 3324
|
Quote:
Partendo dal presupposto che in certi computi certe caratteristiche non dovrebbero avere alcun peso, credo che per certi ambiti un algoritmo finirebbe comunque per avere i neri come etnia più sfavorita anche se il parametro razziale non fosse indicato. Metti che si debba fare un calcolo per stabilire gli interessi di un prestito, del costo di assicurazione o del rischio di recidiva per una certa tipologia di crimine. Se il risultato dell'algoritmo ti andasse a penalizzare la città di Detroit, sicuramente la cosa andrebbe a pesare sui neri, vista l'altissima percentuale della popolazione locale (~80%), pur non essendoci l'etnia nel computo. Parleresti di razzismo anche in questo caso? Guarda cosa succede qui in Italia con le assicurazioni, dove la classifica delle province più costose è dominata dal sud Italia. Secondo te sono gli algoritmi razzisti ad avere qualcosa contro "i terroni" oppure nel computo sono considerati dei dati statistici che penalizzano quelle zone a causa dell'alta incidenza di certi comportamenti? Ecco, stessa cosa può avvenire con le AI. Tra l'altro se bisogna "penalizzare" sulla base di certi parametri, non serve tirare in mezzo le AI per far si che ci si trovi in situazioni che possono venire etichettate come razzismo. La stessa Kamala Harris, quando era procuratore a San Francisco, ha tenuto in carcere montagne di afroamericani e non credo per questioni di razzismo ma perché costoro rientravano in certi parametri. Questa questione è stata infatti una rogna non indifferente durante la sua campagna elettorale. Ultima modifica di Doraneko : 22-06-2021 alle 07:56. |
|
22-06-2021, 07:49 | #76 | |
Senior Member
Iscritto dal: Aug 2005
Messaggi: 3324
|
Quote:
|
|
22-06-2021, 07:58 | #77 | |
Senior Member
Iscritto dal: Aug 2005
Messaggi: 3324
|
Quote:
|
|
22-06-2021, 11:36 | #78 |
Junior Member
Iscritto dal: May 2014
Messaggi: 42
|
#6 @ombra77
Sei un grande... pienamente d'accordo...
soprattutto perché l'uomo non vuole basare il giudizio su giusto/sbagliato, vero/falso, acceso/spento, o per parlare in bit 0/1 come d'altronde l'AI ragiona... puoi creare tutti gli algoritmi che vuoi, ma quando scavi in fondo arrivi alla nuda verità e all'esattezza della pura matematica booleana... se insegni musulmano + missile = morti non potrà ritornare come risultato "amore" |
14-07-2023, 12:40 | #79 |
Senior Member
Iscritto dal: Nov 2000
Messaggi: 2066
|
Ma un qualche cavolo di admin a far saltare per aria qualche account non c'è in orario di pranzo?
|
18-07-2023, 08:06 | #80 |
Senior Member
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26452
|
Tu in orario di pranzo lavori?
__________________
|
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 20:30.