esatto è il classico problema di hype alla gartner adesso siamo nel peak e giu tutti a pensare che le IA facciano miracoli quando esistono e si usano da decenni solo che prima non si chiamavano AI e deep learning ma reti neurali, sistemi non lineari, statistica avanzata, nomi meno fighi sicuro ma alla fine sempre nomi sono.
l'unica cosa che è cambiata è la potenza di calcolo disponibile, ormai chiunque può addestrare un dataset corposo, basta una carta di credito e un account gcp,aws, azure a scelta prima era un attività nettamenente più costosa. inoltre adesso è un fiorire di soluzioni low code / no code che permettono di creare sistemi semplici anche senza troppe skill di programmazione
giusto per farti un esempio,a memoria il primo algoritmo basato su reti neurali che ho sviluppato e messo in produzione in un azienda penso di averlo scritto tra il 2008 e il 2009 una robetta se mi ricordo bene da 3 strati e 37 nodi in back propagation con un paio di GB di dataset per il training ed il training ha occupato un core2quad con xp64 e 8 GB di ram con un raid 0 di dischi a 15k rpm e 8k€ di licenza di matlab(un macchinone per l'epoca) per tipo 90 giorni con la paura che lo script si incatramasse e dovessimo ricominciare da zero
__________________
"WS" (p280,cx750m,4790k+212evo,z97pro,4x8GB ddr3 1600c11,GTX760-DC2OC,MZ-7TE500, WD20EFRX)
Desktop (three hundred,650gq,3800x+nh-u14s ,x570 arous elite,2x16GB ddr4 3200c16, rx5600xt pulse P5 1TB)+NB: Lenovo p53 i7-9750H,64GB DDR4,2x1TB SSD, T1000
|