Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
A distanza di circa 8 mesi arriva l’importante aggiornamento dei MacBook Air: nessun cambiamento estetico, ma una revisione hardware interna con l’upgrade al processore M3. Le prestazioni migliorano rispetto alle generazioni precedenti, e questo fa sorgere una domanda spontanea: a chi è rivolto oggi questo laptop? Cerchiamo di capirlo nella nostra recensione 
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
Da ASUS un monitor particolare ma molto completo: principalmente indirizzato al videogiocatore, può essere sfruttato con efficacia anche per attività creative e di produzione multimediale
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Il nuovo robot aspirapolvere domestico di Dreame abbina funzionalità complete a un moccio flottante che raggiunge al meglio gli angoli delle pareti. Un prodotto tutto in uno semplice da utilizzare ma molto efficace, in grado di rispondere al meglio alle necessità di pulizia della casa
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 21-06-2021, 09:20   #61
omerook
Senior Member
 
L'Avatar di omerook
 
Iscritto dal: Jul 2003
Città: Civis Romanus Sum
Messaggi: 6878
povera IA se sta imparando da noi tra qualche anno di intelligente le rimarrà ben poco.... mi ricorda la scena dove il dott Frankestein manda Igor a rubare un cervello per la sua creatura e non fece proprio una buona scelta
__________________
Asrock Q1900M , SSD 240GB, Pico Psu 90W, No Fans , No HD, zero meccanica, zero rumore!
Asrock 1333-D667, Celeron 420 Conroe-L, VID6 undervolt pin mod 0.875v, Fanless
Ubuntu delle mie brame, per me sei e sarai sempre tu il linux più bello del reame

Ultima modifica di omerook : 21-06-2021 alle 09:24.
omerook è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 09:21   #62
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 785
Quote:
Originariamente inviato da Pino90 Guarda i messaggi
Falso come una moneta da tre euro!!! Dio mio ma ci credi pure alle scemenze che scrivi?

https://it.wikipedia.org/wiki/Attentato_di_Macerata

https://it.wikipedia.org/wiki/Attent...11_in_Norvegia
Paragonare due psicolabili con intere ORGANIZZAZIONI terroristiche che operano il male da anni (Al Quaida, Boko Haram, ecc). E poi sarei io quello che dice schiocchezze?
boboviz è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 09:23   #63
amd-novello
Senior Member
 
L'Avatar di amd-novello
 
Iscritto dal: Aug 2001
Città: Novara (NO)
Messaggi: 19650
Il cervello dei buonisti è introvabile come al solito.
__________________
ASUS N76VZ +crucial m500 Dell Latitude E5430 iPad 2017 Huawei nova 5t con Very samsung tv 55m5500 ps4,wiiu
exVODA 82/18-78/16-77/13-90/11 exWIND 95/14-95/19-85/19-81/22 fritzbox 7490
su Tiscali 936/288
amd-novello è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 09:24   #64
Pino90
Senior Member
 
L'Avatar di Pino90
 
Iscritto dal: Jan 2015
Città: Euskal Herria
Messaggi: 3581
Quote:
Originariamente inviato da boboviz Guarda i messaggi
Paragonare due psicolabili con intere ORGANIZZAZIONI terroristiche che operano il male da anni (Al Quaida, Boko Haram, ecc). E poi sarei io quello che dice schiocchezze?
Hai semplicemente detto una cosa falsa: tutti i terroristi sono mussulmani. Non è vero. Punto.

Io non ho fatto nessun paragone, perchè sarebbe idiota: quello l'hai fatto tu, perchè non hai altro da dire.

PS che c'entra boko haram con il terrorismo europeo?

Quote:
Originariamente inviato da amd-novello Guarda i messaggi
Il cervello dei buonisti è introvabile come al solito.
Dire che una menzogna è falsa non è buonismo, è semplicemente smentire una menzogna. Dare giudizi a tutto spiano non aiuta la discussione e dice molto sulla persona.
__________________
MALWARES

Kim è dimagrito!

Ultima modifica di Pino90 : 21-06-2021 alle 09:26.
Pino90 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 09:30   #65
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 785
Quote:
Originariamente inviato da Pino90 Guarda i messaggi
Hai semplicemente detto una cosa falsa: tutti i terroristi sono mussulmani. Non è vero. Punto.
Va bene, va bene, ti faccio contento: non tutti i terroristi sono mussulmani, solo la stra-stra-stragrandissima maggioranza. Va meglio?

Quote:
Io non ho fatto nessun paragone, perchè sarebbe idiota: quello l'hai fatto tu, perchè non hai altro da dire.
Non hai altro da dire perchè ti sei auto-definito.

Quote:
Dare giudizi a tutto spiano non aiuta la discussione e dice molto sulla persona.
Tutta questa autocritica mi sembra esagerata, eh.
boboviz è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 10:03   #66
barzokk
Senior Member
 
L'Avatar di barzokk
 
Iscritto dal: May 2012
Messaggi: 2490
Quote:
Originariamente inviato da incorreggiubile Guarda i messaggi
Avanti col vittimismo strategico che vi hanno instillato eh.....vi hanno proprio impresso un marchio nella psiche. Ripetete tutti le stesse "argutissime" uscite.....
Manca solo "D_O" e i noachiti/massoni....giusto per avere la solita ciliegina complottista dopo le immancabili stoccate contro "$0R0$$$$" e così via.

Guardate che la AI è appunto tarata su soggetti come voi che inondano i social media di merda fatta passare per "realismo" o addirittura "acume sociopolitico".
1) tu scrivi così per apparire più colto ? prova a scrivere in italiano

2) mi dispiace se ti sei offeso per Soros, ma se invece di esibire il nozionismo da lettere e filosofia, tu avessi impiegato 1 minuto con google, trovavi tutto quanto:
https://www.pdsoros.org/meet-the-fellows/abubakar-abid
Abubakar Abid is an immigrant from Pakistan
Fellowship awarded to support work towards a PhD in Electrical Engineering at Stanford University


3) Una AI non è "tarata". Piuttosto si fornisce un training set ad un apposito algoritmo, diciamolo così.
Se Abubakar nei training data ci mette il Mein Kampf, allora il risultato è ovviamente sbilanciato.
Quindi, i casi sono 2:
-o Abubakar ha sbagliato traning set
-oppure vuole dimostrare una tesi
Tertium non datur, secondo me
barzokk è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 10:47   #67
filippo1980
Senior Member
 
Iscritto dal: Jan 2009
Messaggi: 808
Questa notizia mi fa ripensare ad una conferenza che ascoltai qualche anno fa, in questa si raccontava il fatto che una AI progettata per riconoscere le foto tratte da un matrimonio alla fine sviluppo riusciva a riconoscere solo quelle in cui c'erano foto di donne bianche vestite di bianco!
L'analisi successiva aveva riportato che gli sviluppatori (non ricordo di quale nazione ma ovviamente occidentali) avevano usato solo foto della propria culturaper addestrare l'intelligenza artificiale, probabilmente qui è successo qualcosa di simile, probabilmente se fosse stata sviluppata in IRAN al posto della parola mussulmani sarebbe comparsa la parola americani :-D
È una cosa del tutto naturale se si lavora in un team piccolo e poco eterogeneo IMHO
filippo1980 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 11:26   #68
amd-novello
Senior Member
 
L'Avatar di amd-novello
 
Iscritto dal: Aug 2001
Città: Novara (NO)
Messaggi: 19650
Esatto un po' come il riconoscimento facciale che usa la polizia da alcune parti negli Stati Uniti. Si è visto che quando si tratta di persone di colore indicano un sospettato che non è quello reale.
__________________
ASUS N76VZ +crucial m500 Dell Latitude E5430 iPad 2017 Huawei nova 5t con Very samsung tv 55m5500 ps4,wiiu
exVODA 82/18-78/16-77/13-90/11 exWIND 95/14-95/19-85/19-81/22 fritzbox 7490
su Tiscali 936/288
amd-novello è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 17:02   #69
sbaffo
Senior Member
 
L'Avatar di sbaffo
 
Iscritto dal: Feb 2005
Città: MI
Messaggi: 5574
Quote:
Originariamente inviato da incorreggiubile Guarda i messaggi
Guarda che il post a cui hai replicato è il classico post ironico-vittimista che vede il politically-correct pure sotto i sassi.....è pieno ahimè di persone con la fissazione del politically correct come forma di dittatura del pensiero (quando invece esiste solo per non calpestare i piedi a possibili CLIENTI, viene dal mondo aziendale e commerciale come pratica, la politica banalmente l'ha adottato perchè ormai elettore=cliente di ideologia, eh, e questo semmai è il vero problema, non le tesi-cagata sui musulmani violenti perchè "i terroristi sono tutti musulmani!!!1111").
Si, lo so che era ironico, ho preso spunto per fare ulteriore ironia.

Bello il paragone col mondo aziendale, in pratica è come il marketing, occhio che poi però qualcuno ci crede davveroh11!!!11!!

Bye, vado a comprare i pocorn che li ho finiti.
__________________
intel Q9550, nvidia 9800 GTX+, ram 4GB. Ipad Air 4. \\ DUKE é vivo: eduke32 - High Res - roch - DNF 2013 - ports -\- Wolfenstein is back: Blade of agony
Santa Opera di Pulizia del forum: -bannati: Chelidon, Diemberger(aka Svelgen/Vuiton/...?), hereiam,... -sospesi: Toretto x2, Rello75cl, destroyer85, Zocchi X2, Informative x2,... GomblottoH e DisinformazioneH : 1 e 2. BOOOM
sbaffo è online   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 01:29   #70
frncr
Senior Member
 
Iscritto dal: May 2009
Messaggi: 836
Sorvolando sul fatto che la stupidità dilagante nei commenti induce una volta di più a pensare che sia molto urgente un evento che causi un'estinzione di massa della nostra specie, in merito alla notizia segnalo che il problema dei pregiudizi codificati anche involontariamente negli algoritmi usati ormai per automatizzare un po' di tutto è reale e molto grave. Per chi ha un abbonamento a Netflix consiglio la visione del documentario del 2020 CODED BIAS, che illustra il problema a partire dall'esperienza di una ricercatrice nera del MIT che ha scoperto che gli algoritmi di riconoscimento facciale come quelli di Apple e Google funzionano molto bene con maschi bianchi e molto male con femmine nere, e da lì ha iniziato una ricerca per capire quanto è profondo il problema. Si scopre poi che in altro ambito gli algoritmi che attribiuscono il merito creditizio sono razzisti, così come sono razzisti gli algoritmi che in alcuni stati USA stabiliscono se una persona deve restare in carcere per rischio di recidiva o può essere scarcerata. In generale pare che tutti gli algoritmi di valutazione del rischio risultino razzisti o abbiano altri pregiudi sociali, e visto che tali algoritmi acquisiscono sempre più capacità di condizionare la vita delle persone, è chiaramente un problema da risolvere.

L'origine del malfunzionamento può essere nelle scelte sbagliate dei dataset per addestrare le "IA" (scelte operate perlopiù da maschi bianchi), ma anche da grossolani errori logici degli sviluppatori un po' ignoranti che fanno derivare nessi causali da semplici correlazioni statistiche (qui una buona spiegazione: https://www.paolobenanti.com/post/20.../se-ai-carcere).

Se queste sono le premesse, non sembra che le cosiddette "IA" siano destinate a migliorare il mondo; dobbiamo sperare che vengano regolamentate in modo rigoroso, e finché non dimostrino di essere esenti da difetti di tale portata ne venga semplicemente vietato l'impiego.

Ultima modifica di frncr : 22-06-2021 alle 01:33.
frncr è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 01:51   #71
Hiei3600
Senior Member
 
L'Avatar di Hiei3600
 
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2122
Quote:
Originariamente inviato da frncr Guarda i messaggi
L'origine del malfunzionamento può essere nelle scelte sbagliate dei dataset per addestrare le "IA" (scelte operate perlopiù da maschi bianchi), ma anche da grossolani errori logici degli sviluppatori un po' ignoranti che fanno derivare nessi causali da semplici correlazioni statistiche (qui una buona spiegazione: https://www.paolobenanti.com/post/20.../se-ai-carcere).
Quoto dall'articolo

Quote:
Se un algoritmo ha trovato, ad esempio, che il reddito basso è correlato con un'elevata recidiva, nessuno pensa che il basso reddito abbia effettivamente causato il crimine. Ciascuno può richiamare alla memoria numerose persone che, anche con reddito basso, vivono vite dignitose e più che oneste. Ma questo è esattamente ciò che fanno gli strumenti di valutazione del rischio: trasformano le intuizioni correlative in meccanismi di punteggio causale.
Okay ma che centra esattamente la "Causa" ? se un algoritmo come in questo caso nella ha la funzione di " valutazione del rischio criminale" (Come riportato prima nell'articolo) non dovrebbe essere responsabile del conoscere o capirne la causa, perché qui non si parla di gente che non ha fatto niente, si parla di gente che è stata già arrestata per un qualche motivo valido(si spera) e della quale l'algoritmo deve semplicemente valutare se carcerare il soggetto in attesa del processo o meno (da quanto ho capito leggendo l'articolo); Quindi di fatto la valutazione del IA arriva già a "Fatto compiuto", non è più rivelante conoscere la "Causa", dato che capire la causa serve a "Prevenire" un crimine, non a valutarne le conseguenze.

Se ad esempio un tizio ruba del cibo,a me che come computer non mi importa niente se lo ha fatto perché stava morendo di fame o perché voleva vendere il cibo per fare soldi, io devo valutare le conseguenze delle sue azioni, non gli devo fare da genitore.

Quote:
Ora le popolazioni che storicamente sono state colpite in modo sproporzionato dalle forze dell'ordine, specialmente quelle a basso reddito e minoritarie, sono a rischio di essere ulteriormente oltraggiate e vessate con punteggi di recidiva elevati. Di conseguenza, l'algoritmo potrebbe amplificare e perpetuare i pregiudizi incorporati nei dati e generare dati ancor più distorti alimentando così un circolo vizioso.
Magari gli danno in pasto dati più recenti, invece di quelli di 50 anni fa o più, se il "Problema" persiste c'è poco da fare, se ad esempio, in maniera del tutto ipotetica, una parte della popolazione con un determinato colore della pelle ha una propensione maggiore a compiere atti criminali, questo non dovrebbe essere un problema del sistema giudiziario; come ho già detto prima, il sistema giudiziario interviene a "Cosa fatta", il sistema giudiziario interviene per indagare e se necessario punire, una cosa che NON è di competenza del sistema giudiziario è quella di educare, per quella ci sono altre istituzioni.

Quote:
Poiché la maggior parte degli algoritmi di valutazione del rischio sono proprietari, e quindi inaccessibili alla loro struttura computativa per la tutela della proprietà intellettuale, è anche impossibile mettere in questione le loro decisioni o renderle responsabili.
Questo è l'unico reale problema che condivido, non esiste che una scatola chiusa possa prendere decisioni del genere, estenderei anche il problema ad un qualsiasi software medico, non ci possono essere segreti industriali per questo genere di cose.
__________________
Hiei3600 è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 02:31   #72
frncr
Senior Member
 
Iscritto dal: May 2009
Messaggi: 836
Quote:
Originariamente inviato da Hiei3600 Guarda i messaggi
Okay ma che centra esattamente la "Causa" ? se un algoritmo come in questo caso nella ha la funzione di " valutazione del rischio criminale" (Come riportato prima nell'articolo) non dovrebbe essere responsabile del conoscere o capirne la causa, perché qui non si parla di gente che non ha fatto niente, si parla di gente che è stata già arrestata per un qualche motivo valido(si spera) e della quale l'algoritmo deve semplicemente valutare se carcerare il soggetto in attesa del processo o meno (da quanto ho capito leggendo l'articolo); Quindi di fatto la valutazione del IA arriva già a "Fatto compiuto", non è più rivelante conoscere la "Causa", dato che capire la causa serve a "Prevenire" un crimine, non a valutarne le conseguenze.
Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).
frncr è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 02:37   #73
Hiei3600
Senior Member
 
L'Avatar di Hiei3600
 
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 2122
Quote:
Originariamente inviato da frncr Guarda i messaggi
Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).
Beh allora propongo una "" Facile "" soluzione : Rimuovere completamente ogni riferimento all'etnia / colore della pelle delle persone dall'algoritmo (e per farlo ovviamente è necessario che siano Open source); Se un fattore non ha rilevanza nel calcolo non ha senso che sia presente.
__________________
Hiei3600 è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 02:58   #74
frncr
Senior Member
 
Iscritto dal: May 2009
Messaggi: 836
In effetti quella che proponi sembrerebbe una soluzione semplice, ma credo che in quel paese (e non solo) sia radicatissimo e onnipresente l'uso di indicare l'etnia (o "razza" che dir si voglia) in ogni tipo di "schedatura" personale, a partire da quelle di polizia. Nelle IA si stanno banalmente trapiantando i pregiudizi razziali e sociali che sono già presenti in gran parte dei membri della società umana; si spera che il passaggio sempre più diffuso a sistemi decisionali meccanici sia l'occasione per fare pulizia di tali pregiudizi, ma per ora pare non stia accadendo.
frncr è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 08:34   #75
Doraneko
Senior Member
 
Iscritto dal: Aug 2005
Messaggi: 3304
Quote:
Originariamente inviato da frncr Guarda i messaggi
Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).
In USA il parametro etnico (caucasico/asiatico/afroamericano/ecc...) è indicato solamente a scopo descrittivo, come se fosse il colore degli occhi, dei capelli, ecc...non è un parametro sul quale basare giudizi. Se venissero inseriti parametri fisionomici in certi algoritmi, anche caratteri tipo colore degli occhi o altezza potrebbero essere penalizzanti se comparissero con una certa frequenza nei tratti di criminali, di debitori insolventi, ecc...
Partendo dal presupposto che in certi computi certe caratteristiche non dovrebbero avere alcun peso, credo che per certi ambiti un algoritmo finirebbe comunque per avere i neri come etnia più sfavorita anche se il parametro razziale non fosse indicato. Metti che si debba fare un calcolo per stabilire gli interessi di un prestito, del costo di assicurazione o del rischio di recidiva per una certa tipologia di crimine. Se il risultato dell'algoritmo ti andasse a penalizzare la città di Detroit, sicuramente la cosa andrebbe a pesare sui neri, vista l'altissima percentuale della popolazione locale (~80%), pur non essendoci l'etnia nel computo. Parleresti di razzismo anche in questo caso? Guarda cosa succede qui in Italia con le assicurazioni, dove la classifica delle province più costose è dominata dal sud Italia. Secondo te sono gli algoritmi razzisti ad avere qualcosa contro "i terroni" oppure nel computo sono considerati dei dati statistici che penalizzano quelle zone a causa dell'alta incidenza di certi comportamenti? Ecco, stessa cosa può avvenire con le AI.
Tra l'altro se bisogna "penalizzare" sulla base di certi parametri, non serve tirare in mezzo le AI per far si che ci si trovi in situazioni che possono venire etichettate come razzismo. La stessa Kamala Harris, quando era procuratore a San Francisco, ha tenuto in carcere montagne di afroamericani e non credo per questioni di razzismo ma perché costoro rientravano in certi parametri. Questa questione è stata infatti una rogna non indifferente durante la sua campagna elettorale.

Ultima modifica di Doraneko : 22-06-2021 alle 08:56.
Doraneko è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 08:49   #76
Doraneko
Senior Member
 
Iscritto dal: Aug 2005
Messaggi: 3304
Quote:
Originariamente inviato da Hiei3600 Guarda i messaggi
Beh allora propongo una "" Facile "" soluzione : Rimuovere completamente ogni riferimento all'etnia / colore della pelle delle persone dall'algoritmo (e per farlo ovviamente è necessario che siano Open source); Se un fattore non ha rilevanza nel calcolo non ha senso che sia presente.
Dipende anche da che tipo di profilazione viene fatta, perché se statisticamente un comportamento delittuoso è molto frequente tra persone di una certa etnia o di una certa comunità, il tuo appartenere a quella stessa etnia/comunità ti rende potenzialmente più esposto ad avere pregiudicati o criminali tra le tue frequentazioni. Metti che chiedo ad una AI di trovare chi è più esposto al rischio radicalizzazione islamica, è più probabile che mi escano i profili di altri islamici o di ebrei e cristiani? La gente che troverò nei risultati è più probabile che abiti in un quartiere musulmano o a Chinatown? Secondo te perciò l'etnia o la provenienza sono parametri che vanno totalmente ignorati?
Doraneko è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 08:58   #77
Doraneko
Senior Member
 
Iscritto dal: Aug 2005
Messaggi: 3304
Quote:
Originariamente inviato da frncr Guarda i messaggi
In effetti quella che proponi sembrerebbe una soluzione semplice, ma credo che in quel paese (e non solo) sia radicatissimo e onnipresente l'uso di indicare l'etnia (o "razza" che dir si voglia) in ogni tipo di "schedatura" personale, a partire da quelle di polizia. Nelle IA si stanno banalmente trapiantando i pregiudizi razziali e sociali che sono già presenti in gran parte dei membri della società umana; si spera che il passaggio sempre più diffuso a sistemi decisionali meccanici sia l'occasione per fare pulizia di tali pregiudizi, ma per ora pare non stia accadendo.
Come ho già scritto, l'indicazione della razza compare a scopo puramente descrittivo.
Doraneko è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 12:36   #78
miky_b854
Junior Member
 
Iscritto dal: May 2014
Messaggi: 42
#6 @ombra77

Sei un grande... pienamente d'accordo...
soprattutto perché l'uomo non vuole basare il giudizio su giusto/sbagliato, vero/falso, acceso/spento, o per parlare in bit 0/1 come d'altronde l'AI ragiona... puoi creare tutti gli algoritmi che vuoi, ma quando scavi in fondo arrivi alla nuda verità e all'esattezza della pura matematica booleana...
se insegni musulmano + missile = morti
non potrà ritornare come risultato "amore"
miky_b854 è offline   Rispondi citando il messaggio o parte di esso
Old 14-07-2023, 13:40   #79
MorgaNet
Senior Member
 
L'Avatar di MorgaNet
 
Iscritto dal: Nov 2000
Messaggi: 2066
Ma un qualche cavolo di admin a far saltare per aria qualche account non c'è in orario di pranzo?
MorgaNet è offline   Rispondi citando il messaggio o parte di esso
Old 18-07-2023, 09:06   #80
cronos1990
Senior Member
 
L'Avatar di cronos1990
 
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26362
Quote:
Originariamente inviato da MorgaNet Guarda i messaggi
Ma un qualche cavolo di admin a far saltare per aria qualche account non c'è in orario di pranzo?
Tu in orario di pranzo lavori?
cronos1990 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Apple MacBook Air M3: chi deve davvero comprarlo? La recensione Apple MacBook Air M3: chi deve davvero comprarlo...
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ul...
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza Dreame L10s Pro Ultra Heat: la pulizia di casa t...
HONOR Magic6 Pro: come funziona Magic Portal, il modo ''intelligente'' di condividere HONOR Magic6 Pro: come funziona Magic Portal, il...
L'innovazione richiede fiducia: Workday si propone come guida nell'era dell'IA L'innovazione richiede fiducia: Workday si propo...
Google Pixel 8 Pro a prezzi imperdibili:...
Xiaomi spacca il mercato: l'elettrica SU...
CPU Intel, un futuro tra The Big Bang Th...
Game Pass ed Epic Games Store: il suppor...
NIO inizia la produzione del sistema a 9...
Microsoft Edge consentirà di limi...
I driver NVIDIA crashano al torneo milio...
Rinviato l'ultimo lancio del razzo spazi...
CMF Buds by Nothing: gli auricolari econ...
Accordo di intesa firmato, saranno di SK...
iPhone, il supporto alla messaggistica R...
Una GeForce RTX 3080 a meno di 800 euro ...
Ecco le migliori offerte sui processori ...
Polestar presenta Polestar Charge, il se...
PyPI bersagli di un attacco malware: reg...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 15:17.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www3v
1