Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

MSI Katana GF66: il notebook gaming si fa accessibile
MSI Katana GF66: il notebook gaming si fa accessibile
Grazie al listino ridotto Katana GF66 rende il gaming accessibile anche a chi ha un budget contenuto, senza per questo dover scendere a compromessi quanto a prestazioni. Troviamo infatti processore Intel Core i7 a 8 core e una scheda video NVIDIA GeForce RTX 3050, componenti che rendono questo notebook adatto tanto alle necessità di produttività personale come al gaming con i titoli più recenti
Nuova Peugeot 308 plug-in hybrid, test drive in anteprima. Caratteristiche e prezzo
Nuova Peugeot 308 plug-in hybrid, test drive in anteprima. Caratteristiche e prezzo
Abbiamo guidato in anteprima la nuova Peugeot 308 che, a rinnovate linee esterne e a un abitacolo completamente ridisegnato, unisce anche le nuove motorizzazioni plug-in hybrid, in attesa della versione elettrica che arriverà più avanti. Ecco come si è comportata con le diverse modalità di guida, anche 100% elettrica, sulle colline francesi
NVIDIA DLSS vs AMD FSR, chi offre la qualità migliore? Alla prova con Marvel's Avengers
NVIDIA DLSS vs AMD FSR, chi offre la qualità migliore? Alla prova con Marvel's Avengers
Marvel's Avengers supporta entrambe le tecniche di upscaling dei principali produttori di schede video. Con il lancio di FidelityFX Super Resolution da parte di AMD si apre l'ennesima sfida con NVIDIA, sia sul fronte della qualità che su quello delle prestazioni
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 21-06-2021, 08:20   #61
omerook
Senior Member
 
L'Avatar di omerook
 
Iscritto dal: Jul 2003
Città: Civis Romanus Sum
Messaggi: 5922
povera IA se sta imparando da noi tra qualche anno di intelligente le rimarrà ben poco.... mi ricorda la scena dove il dott Frankestein manda Igor a rubare un cervello per la sua creatura e non fece proprio una buona scelta
__________________
Asrock Q1900M , SSD 240GB, Pico Psu 90W, No Fans , No HD, zero meccanica, zero rumore!
Asrock 1333-D667, Celeron 420 Conroe-L, VID6 undervolt pin mod 0.875v, Fanless
Ubuntu delle mie brame, per me sei e sarai sempre tu il linux più bello del reame

Ultima modifica di omerook : 21-06-2021 alle 08:24.
omerook è online   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 08:21   #62
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 583
Quote:
Originariamente inviato da Pino90 Guarda i messaggi
Falso come una moneta da tre euro!!! Dio mio ma ci credi pure alle scemenze che scrivi?

https://it.wikipedia.org/wiki/Attentato_di_Macerata

https://it.wikipedia.org/wiki/Attent...11_in_Norvegia
Paragonare due psicolabili con intere ORGANIZZAZIONI terroristiche che operano il male da anni (Al Quaida, Boko Haram, ecc). E poi sarei io quello che dice schiocchezze?
boboviz è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 08:23   #63
amd-novello
Senior Member
 
L'Avatar di amd-novello
 
Iscritto dal: Aug 2001
Città: Novara (NO)
Messaggi: 18988
Il cervello dei buonisti è introvabile come al solito.
__________________
ASUS N76VZ +crucial m500 Dell Latitude E5430 iPad 2017 Huawei nova 5t con Very samsung tv 55m5500 ps4,wiiu
exVODA 82/18-78/16-77/13-90/11 exWIND 95/14-95/19-85/19-81/22 fritzbox 7490
su Tiscali 936/288
amd-novello è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 08:24   #64
Pino90
Senior Member
 
L'Avatar di Pino90
 
Iscritto dal: Jan 2015
Messaggi: 2601
Quote:
Originariamente inviato da boboviz Guarda i messaggi
Paragonare due psicolabili con intere ORGANIZZAZIONI terroristiche che operano il male da anni (Al Quaida, Boko Haram, ecc). E poi sarei io quello che dice schiocchezze?
Hai semplicemente detto una cosa falsa: tutti i terroristi sono mussulmani. Non è vero. Punto.

Io non ho fatto nessun paragone, perchè sarebbe idiota: quello l'hai fatto tu, perchè non hai altro da dire.

PS che c'entra boko haram con il terrorismo europeo?

Quote:
Originariamente inviato da amd-novello Guarda i messaggi
Il cervello dei buonisti è introvabile come al solito.
Dire che una menzogna è falsa non è buonismo, è semplicemente smentire una menzogna. Dare giudizi a tutto spiano non aiuta la discussione e dice molto sulla persona.

Ultima modifica di Pino90 : 21-06-2021 alle 08:26.
Pino90 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 08:30   #65
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 583
Quote:
Originariamente inviato da Pino90 Guarda i messaggi
Hai semplicemente detto una cosa falsa: tutti i terroristi sono mussulmani. Non è vero. Punto.
Va bene, va bene, ti faccio contento: non tutti i terroristi sono mussulmani, solo la stra-stra-stragrandissima maggioranza. Va meglio?

Quote:
Io non ho fatto nessun paragone, perchè sarebbe idiota: quello l'hai fatto tu, perchè non hai altro da dire.
Non hai altro da dire perchè ti sei auto-definito.

Quote:
Dare giudizi a tutto spiano non aiuta la discussione e dice molto sulla persona.
Tutta questa autocritica mi sembra esagerata, eh.
boboviz è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 09:03   #66
barzokk
Senior Member
 
Iscritto dal: May 2012
Messaggi: 950
Quote:
Originariamente inviato da incorreggiubile Guarda i messaggi
Avanti col vittimismo strategico che vi hanno instillato eh.....vi hanno proprio impresso un marchio nella psiche. Ripetete tutti le stesse "argutissime" uscite.....
Manca solo "D_O" e i noachiti/massoni....giusto per avere la solita ciliegina complottista dopo le immancabili stoccate contro "$0R0$$$$" e così via.

Guardate che la AI è appunto tarata su soggetti come voi che inondano i social media di merda fatta passare per "realismo" o addirittura "acume sociopolitico".
1) tu scrivi così per apparire più colto ? prova a scrivere in italiano

2) mi dispiace se ti sei offeso per Soros, ma se invece di esibire il nozionismo da lettere e filosofia, tu avessi impiegato 1 minuto con google, trovavi tutto quanto:
https://www.pdsoros.org/meet-the-fellows/abubakar-abid
Abubakar Abid is an immigrant from Pakistan
Fellowship awarded to support work towards a PhD in Electrical Engineering at Stanford University


3) Una AI non è "tarata". Piuttosto si fornisce un training set ad un apposito algoritmo, diciamolo così.
Se Abubakar nei training data ci mette il Mein Kampf, allora il risultato è ovviamente sbilanciato.
Quindi, i casi sono 2:
-o Abubakar ha sbagliato traning set
-oppure vuole dimostrare una tesi
Tertium non datur, secondo me
barzokk è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 09:47   #67
filippo1980
Senior Member
 
Iscritto dal: Jan 2009
Messaggi: 653
Questa notizia mi fa ripensare ad una conferenza che ascoltai qualche anno fa, in questa si raccontava il fatto che una AI progettata per riconoscere le foto tratte da un matrimonio alla fine sviluppo riusciva a riconoscere solo quelle in cui c'erano foto di donne bianche vestite di bianco!
L'analisi successiva aveva riportato che gli sviluppatori (non ricordo di quale nazione ma ovviamente occidentali) avevano usato solo foto della propria culturaper addestrare l'intelligenza artificiale, probabilmente qui è successo qualcosa di simile, probabilmente se fosse stata sviluppata in IRAN al posto della parola mussulmani sarebbe comparsa la parola americani :-D
È una cosa del tutto naturale se si lavora in un team piccolo e poco eterogeneo IMHO
filippo1980 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 10:26   #68
amd-novello
Senior Member
 
L'Avatar di amd-novello
 
Iscritto dal: Aug 2001
Città: Novara (NO)
Messaggi: 18988
Esatto un po' come il riconoscimento facciale che usa la polizia da alcune parti negli Stati Uniti. Si è visto che quando si tratta di persone di colore indicano un sospettato che non è quello reale.
__________________
ASUS N76VZ +crucial m500 Dell Latitude E5430 iPad 2017 Huawei nova 5t con Very samsung tv 55m5500 ps4,wiiu
exVODA 82/18-78/16-77/13-90/11 exWIND 95/14-95/19-85/19-81/22 fritzbox 7490
su Tiscali 936/288
amd-novello è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2021, 16:02   #69
sbaffo
Senior Member
 
L'Avatar di sbaffo
 
Iscritto dal: Feb 2005
Città: MI
Messaggi: 3229
Quote:
Originariamente inviato da incorreggiubile Guarda i messaggi
Guarda che il post a cui hai replicato è il classico post ironico-vittimista che vede il politically-correct pure sotto i sassi.....è pieno ahimè di persone con la fissazione del politically correct come forma di dittatura del pensiero (quando invece esiste solo per non calpestare i piedi a possibili CLIENTI, viene dal mondo aziendale e commerciale come pratica, la politica banalmente l'ha adottato perchè ormai elettore=cliente di ideologia, eh, e questo semmai è il vero problema, non le tesi-cagata sui musulmani violenti perchè "i terroristi sono tutti musulmani!!!1111").
Si, lo so che era ironico, ho preso spunto per fare ulteriore ironia.

Bello il paragone col mondo aziendale, in pratica è come il marketing, occhio che poi però qualcuno ci crede davveroh11!!!11!!

Bye, vado a comprare i pocorn che li ho finiti.
__________________
DUKE E' VIVO: eduke32: Duke Nukem 3D su WinXP/7/8/10 - High Resolution Pack (HRP) - roch series - DNF 2013 - Source_ports . -//- Wolfenstein is back: Blade of agony per W10 64bit
iPad Air2 - intel Q9550
sbaffo è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 00:29   #70
frncr
Senior Member
 
Iscritto dal: May 2009
Messaggi: 562
Sorvolando sul fatto che la stupidità dilagante nei commenti induce una volta di più a pensare che sia molto urgente un evento che causi un'estinzione di massa della nostra specie, in merito alla notizia segnalo che il problema dei pregiudizi codificati anche involontariamente negli algoritmi usati ormai per automatizzare un po' di tutto è reale e molto grave. Per chi ha un abbonamento a Netflix consiglio la visione del documentario del 2020 CODED BIAS, che illustra il problema a partire dall'esperienza di una ricercatrice nera del MIT che ha scoperto che gli algoritmi di riconoscimento facciale come quelli di Apple e Google funzionano molto bene con maschi bianchi e molto male con femmine nere, e da lì ha iniziato una ricerca per capire quanto è profondo il problema. Si scopre poi che in altro ambito gli algoritmi che attribiuscono il merito creditizio sono razzisti, così come sono razzisti gli algoritmi che in alcuni stati USA stabiliscono se una persona deve restare in carcere per rischio di recidiva o può essere scarcerata. In generale pare che tutti gli algoritmi di valutazione del rischio risultino razzisti o abbiano altri pregiudi sociali, e visto che tali algoritmi acquisiscono sempre più capacità di condizionare la vita delle persone, è chiaramente un problema da risolvere.

L'origine del malfunzionamento può essere nelle scelte sbagliate dei dataset per addestrare le "IA" (scelte operate perlopiù da maschi bianchi), ma anche da grossolani errori logici degli sviluppatori un po' ignoranti che fanno derivare nessi causali da semplici correlazioni statistiche (qui una buona spiegazione: https://www.paolobenanti.com/post/20.../se-ai-carcere).

Se queste sono le premesse, non sembra che le cosiddette "IA" siano destinate a migliorare il mondo; dobbiamo sperare che vengano regolamentate in modo rigoroso, e finché non dimostrino di essere esenti da difetti di tale portata ne venga semplicemente vietato l'impiego.

Ultima modifica di frncr : 22-06-2021 alle 00:33.
frncr è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 00:51   #71
Hiei3600
Senior Member
 
L'Avatar di Hiei3600
 
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 1063
Quote:
Originariamente inviato da frncr Guarda i messaggi
L'origine del malfunzionamento può essere nelle scelte sbagliate dei dataset per addestrare le "IA" (scelte operate perlopiù da maschi bianchi), ma anche da grossolani errori logici degli sviluppatori un po' ignoranti che fanno derivare nessi causali da semplici correlazioni statistiche (qui una buona spiegazione: https://www.paolobenanti.com/post/20.../se-ai-carcere).
Quoto dall'articolo

Quote:
Se un algoritmo ha trovato, ad esempio, che il reddito basso è correlato con un'elevata recidiva, nessuno pensa che il basso reddito abbia effettivamente causato il crimine. Ciascuno può richiamare alla memoria numerose persone che, anche con reddito basso, vivono vite dignitose e più che oneste. Ma questo è esattamente ciò che fanno gli strumenti di valutazione del rischio: trasformano le intuizioni correlative in meccanismi di punteggio causale.
Okay ma che centra esattamente la "Causa" ? se un algoritmo come in questo caso nella ha la funzione di " valutazione del rischio criminale" (Come riportato prima nell'articolo) non dovrebbe essere responsabile del conoscere o capirne la causa, perché qui non si parla di gente che non ha fatto niente, si parla di gente che è stata già arrestata per un qualche motivo valido(si spera) e della quale l'algoritmo deve semplicemente valutare se carcerare il soggetto in attesa del processo o meno (da quanto ho capito leggendo l'articolo); Quindi di fatto la valutazione del IA arriva già a "Fatto compiuto", non è più rivelante conoscere la "Causa", dato che capire la causa serve a "Prevenire" un crimine, non a valutarne le conseguenze.

Se ad esempio un tizio ruba del cibo,a me che come computer non mi importa niente se lo ha fatto perché stava morendo di fame o perché voleva vendere il cibo per fare soldi, io devo valutare le conseguenze delle sue azioni, non gli devo fare da genitore.

Quote:
Ora le popolazioni che storicamente sono state colpite in modo sproporzionato dalle forze dell'ordine, specialmente quelle a basso reddito e minoritarie, sono a rischio di essere ulteriormente oltraggiate e vessate con punteggi di recidiva elevati. Di conseguenza, l'algoritmo potrebbe amplificare e perpetuare i pregiudizi incorporati nei dati e generare dati ancor più distorti alimentando così un circolo vizioso.
Magari gli danno in pasto dati più recenti, invece di quelli di 50 anni fa o più, se il "Problema" persiste c'è poco da fare, se ad esempio, in maniera del tutto ipotetica, una parte della popolazione con un determinato colore della pelle ha una propensione maggiore a compiere atti criminali, questo non dovrebbe essere un problema del sistema giudiziario; come ho già detto prima, il sistema giudiziario interviene a "Cosa fatta", il sistema giudiziario interviene per indagare e se necessario punire, una cosa che NON è di competenza del sistema giudiziario è quella di educare, per quella ci sono altre istituzioni.

Quote:
Poiché la maggior parte degli algoritmi di valutazione del rischio sono proprietari, e quindi inaccessibili alla loro struttura computativa per la tutela della proprietà intellettuale, è anche impossibile mettere in questione le loro decisioni o renderle responsabili.
Questo è l'unico reale problema che condivido, non esiste che una scatola chiusa possa prendere decisioni del genere, estenderei anche il problema ad un qualsiasi software medico, non ci possono essere segreti industriali per questo genere di cose.
__________________
Hiei3600 è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 01:31   #72
frncr
Senior Member
 
Iscritto dal: May 2009
Messaggi: 562
Quote:
Originariamente inviato da Hiei3600 Guarda i messaggi
Okay ma che centra esattamente la "Causa" ? se un algoritmo come in questo caso nella ha la funzione di " valutazione del rischio criminale" (Come riportato prima nell'articolo) non dovrebbe essere responsabile del conoscere o capirne la causa, perché qui non si parla di gente che non ha fatto niente, si parla di gente che è stata già arrestata per un qualche motivo valido(si spera) e della quale l'algoritmo deve semplicemente valutare se carcerare il soggetto in attesa del processo o meno (da quanto ho capito leggendo l'articolo); Quindi di fatto la valutazione del IA arriva già a "Fatto compiuto", non è più rivelante conoscere la "Causa", dato che capire la causa serve a "Prevenire" un crimine, non a valutarne le conseguenze.
Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).
frncr è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 01:37   #73
Hiei3600
Senior Member
 
L'Avatar di Hiei3600
 
Iscritto dal: May 2006
Città: Sicilia(Da Qualche Parte)
Messaggi: 1063
Quote:
Originariamente inviato da frncr Guarda i messaggi
Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).
Beh allora propongo una "" Facile "" soluzione : Rimuovere completamente ogni riferimento all'etnia / colore della pelle delle persone dall'algoritmo (e per farlo ovviamente è necessario che siano Open source); Se un fattore non ha rilevanza nel calcolo non ha senso che sia presente.
__________________
Hiei3600 è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 01:58   #74
frncr
Senior Member
 
Iscritto dal: May 2009
Messaggi: 562
In effetti quella che proponi sembrerebbe una soluzione semplice, ma credo che in quel paese (e non solo) sia radicatissimo e onnipresente l'uso di indicare l'etnia (o "razza" che dir si voglia) in ogni tipo di "schedatura" personale, a partire da quelle di polizia. Nelle IA si stanno banalmente trapiantando i pregiudizi razziali e sociali che sono già presenti in gran parte dei membri della società umana; si spera che il passaggio sempre più diffuso a sistemi decisionali meccanici sia l'occasione per fare pulizia di tali pregiudizi, ma per ora pare non stia accadendo.
frncr è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 07:34   #75
Doraneko
Senior Member
 
Iscritto dal: Aug 2005
Messaggi: 2678
Quote:
Originariamente inviato da frncr Guarda i messaggi
Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).
In USA il parametro etnico (caucasico/asiatico/afroamericano/ecc...) è indicato solamente a scopo descrittivo, come se fosse il colore degli occhi, dei capelli, ecc...non è un parametro sul quale basare giudizi. Se venissero inseriti parametri fisionomici in certi algoritmi, anche caratteri tipo colore degli occhi o altezza potrebbero essere penalizzanti se comparissero con una certa frequenza nei tratti di criminali, di debitori insolventi, ecc...
Partendo dal presupposto che in certi computi certe caratteristiche non dovrebbero avere alcun peso, credo che per certi ambiti un algoritmo finirebbe comunque per avere i neri come etnia più sfavorita anche se il parametro razziale non fosse indicato. Metti che si debba fare un calcolo per stabilire gli interessi di un prestito, del costo di assicurazione o del rischio di recidiva per una certa tipologia di crimine. Se il risultato dell'algoritmo ti andasse a penalizzare la città di Detroit, sicuramente la cosa andrebbe a pesare sui neri, vista l'altissima percentuale della popolazione locale (~80%), pur non essendoci l'etnia nel computo. Parleresti di razzismo anche in questo caso? Guarda cosa succede qui in Italia con le assicurazioni, dove la classifica delle province più costose è dominata dal sud Italia. Secondo te sono gli algoritmi razzisti ad avere qualcosa contro "i terroni" oppure nel computo sono considerati dei dati statistici che penalizzano quelle zone a causa dell'alta incidenza di certi comportamenti? Ecco, stessa cosa può avvenire con le AI.
Tra l'altro se bisogna "penalizzare" sulla base di certi parametri, non serve tirare in mezzo le AI per far si che ci si trovi in situazioni che possono venire etichettate come razzismo. La stessa Kamala Harris, quando era procuratore a San Francisco, ha tenuto in carcere montagne di afroamericani e non credo per questioni di razzismo ma perché costoro rientravano in certi parametri. Questa questione è stata infatti una rogna non indifferente durante la sua campagna elettorale.

Ultima modifica di Doraneko : 22-06-2021 alle 07:56.
Doraneko è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 07:49   #76
Doraneko
Senior Member
 
Iscritto dal: Aug 2005
Messaggi: 2678
Quote:
Originariamente inviato da Hiei3600 Guarda i messaggi
Beh allora propongo una "" Facile "" soluzione : Rimuovere completamente ogni riferimento all'etnia / colore della pelle delle persone dall'algoritmo (e per farlo ovviamente è necessario che siano Open source); Se un fattore non ha rilevanza nel calcolo non ha senso che sia presente.
Dipende anche da che tipo di profilazione viene fatta, perché se statisticamente un comportamento delittuoso è molto frequente tra persone di una certa etnia o di una certa comunità, il tuo appartenere a quella stessa etnia/comunità ti rende potenzialmente più esposto ad avere pregiudicati o criminali tra le tue frequentazioni. Metti che chiedo ad una AI di trovare chi è più esposto al rischio radicalizzazione islamica, è più probabile che mi escano i profili di altri islamici o di ebrei e cristiani? La gente che troverò nei risultati è più probabile che abiti in un quartiere musulmano o a Chinatown? Secondo te perciò l'etnia o la provenienza sono parametri che vanno totalmente ignorati?
Doraneko è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 07:58   #77
Doraneko
Senior Member
 
Iscritto dal: Aug 2005
Messaggi: 2678
Quote:
Originariamente inviato da frncr Guarda i messaggi
In effetti quella che proponi sembrerebbe una soluzione semplice, ma credo che in quel paese (e non solo) sia radicatissimo e onnipresente l'uso di indicare l'etnia (o "razza" che dir si voglia) in ogni tipo di "schedatura" personale, a partire da quelle di polizia. Nelle IA si stanno banalmente trapiantando i pregiudizi razziali e sociali che sono già presenti in gran parte dei membri della società umana; si spera che il passaggio sempre più diffuso a sistemi decisionali meccanici sia l'occasione per fare pulizia di tali pregiudizi, ma per ora pare non stia accadendo.
Come ho già scritto, l'indicazione della razza compare a scopo puramente descrittivo.
Doraneko è offline   Rispondi citando il messaggio o parte di esso
Old 22-06-2021, 11:36   #78
miky_b854
Junior Member
 
Iscritto dal: May 2014
Messaggi: 36
#6 @ombra77

Sei un grande... pienamente d'accordo...
soprattutto perché l'uomo non vuole basare il giudizio su giusto/sbagliato, vero/falso, acceso/spento, o per parlare in bit 0/1 come d'altronde l'AI ragiona... puoi creare tutti gli algoritmi che vuoi, ma quando scavi in fondo arrivi alla nuda verità e all'esattezza della pura matematica booleana...
se insegni musulmano + missile = morti
non potrà ritornare come risultato "amore"
miky_b854 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


MSI Katana GF66: il notebook gaming si fa accessibile MSI Katana GF66: il notebook gaming si fa access...
Nuova Peugeot 308 plug-in hybrid, test drive in anteprima. Caratteristiche e prezzo Nuova Peugeot 308 plug-in hybrid, test drive in ...
NVIDIA DLSS vs AMD FSR, chi offre la qualità migliore? Alla prova con Marvel's Avengers NVIDIA DLSS vs AMD FSR, chi offre la qualit&agra...
Death Stranding: Director's Cut, il viaggio di Sam continua su PS5 - Recensione Death Stranding: Director's Cut, il viaggio di S...
Sony Xperia 1 III: display e fotocamera al top giustificano il prezzo? La recensione Sony Xperia 1 III: display e fotocamera al top g...
Amazon Astro è il primo robot aut...
Amazon presenta il primo videocitofono B...
Amazon presenta Echo Show 15! Il primo c...
eero Pro 6 è ufficiale: Wi-Fi 6 e...
Vulnerabilità zero-day su iOS: Ap...
Qualcomm IoT Services Suite per citt&agr...
HPE annuncia Ezmeral Unified Analytics e...
Samsung AirDresser: scopri l'armadio sma...
New World: l'MMO di Amazon è ora ...
Occhio ai cinesi: anche Geely punta sull...
AIR3268, la nuova radio 5G di Ericsson u...
Società di Bitcoin acquista una c...
Bosch presenta il nuovo motore elettrico...
Dolby Vision per i videogiochi al debutt...
Truffa in bolletta: 1 euro al mese addeb...
SiSoftware Sandra Lite
3DMark
Paint.NET
Chromium
Firefox Portable
CrystalDiskInfo
SmartFTP
Google Chrome Portable
iTunes 12
GPU-Z
Firefox 92
K-Lite Mega Codec Pack
K-Lite Codec Pack Full
K-Lite Codec Pack Standard
K-Lite Codec Pack Basic
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 21:36.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2021, Jelsoft Enterprises Ltd.
Served by www2v
1