PDA

View Full Version : 32 Core per le prime GPU Intel Larrabee


Redazione di Hardware Upg
18-06-2007, 13:48
Link alla notizia: http://www.hwupgrade.it/news/skvideo/21613.html

Queste le prime anticipazioni sull'architettura delle future GPU Intel Larrabee, destinate ad elaborazioni di calcolo parallelo e non alla grafica

Click sul link per visualizzare la notizia.

pescasat
18-06-2007, 13:54
48 core? :O

maeco84
18-06-2007, 13:57
WOW... chissà se nei videogiochi l'impiego di multi CPU di questo tipo si avrà effettivamente un bel vantaggio... ho visto benchmark che dimostravano che (3dMark a parte) un Q6600 va come un E6600 (5 fps in più... 600€ di differenza)!!! Ma...

LASCO
18-06-2007, 14:00
48 core? :Oper calcoli scientifici ne servono un bel po', considerando anche che piu' persone li possono usare contemporaneamente. Io saprei come sfruttarli 48 core :cool: .

Dexther
18-06-2007, 14:01
:ave:

dawid999
18-06-2007, 14:02
sfruttassero bene quei "miseri" 2 core invece di mettercene triliardi senza che poi vengano usati come si deve

albortola
18-06-2007, 14:02
WOW... chissà se nei videogiochi l'impiego di multi CPU di questo tipo si avrà effettivamente un bel vantaggio... ho visto benchmark che dimostravano che (3dMark a parte) un Q6600 va come un E6600 (5 fps in più... 600€ di differenza)!!! Ma...

che gran novità :O adesso come adesso non ci dovrebbero essere neppure quei 5 fps in +..forse perchè un core fa girare le apps in background.

e comunque, 600 euro di differenza? :mbe:

ScoopX
18-06-2007, 14:03
semplicemente perchè nessuno dei giochi esistenti sfrutta la sua potenza, ma non hanno di certo prestazioni simili..

albortola
18-06-2007, 14:03
sfruttassero bene quei "miseri" 2 core invece di mettercene triliardi senza che poi vengano usati come si deve
x 'quei miseri 2 core' intendi i core delle cpu?
forse nel 2009 le applicazioni saranno un minimo ottimizzate..:stordita:

dawid999
18-06-2007, 14:03
maggior parte del software (destinato a noi semplici utenti) non sfrutta la possibilità dei vantaggi di 2 core figuriamoci 32

JJSTr
18-06-2007, 14:04
chi comprerà quei 48 core stai tranquillo che saparà come sfruttarli e lo fara

Mister24
18-06-2007, 14:04
WOW... chissà se nei videogiochi l'impiego di multi CPU di questo tipo si avrà effettivamente un bel vantaggio... ho visto benchmark che dimostravano che (3dMark a parte) un Q6600 va come un E6600 (5 fps in più... 600€ di differenza)!!! Ma...

sfruttassero bene quei "miseri" 2 core invece di mettercene triliardi senza che poi vengano usati come si deve

Nella notizia sia sta parlando di Gpu e non di Cpu.

gabi.2437
18-06-2007, 14:07
Beh è una scheda fatta per dar pura potenza di calcolo, non è una scheda video come la si intende normalmente

V4n{}u|sH
18-06-2007, 14:08
Nella notizia sia sta parlando di Gpu e non di Cpu.
Appunto... anche se mi sembra una cosa abbastanza anormale...

geometra91
18-06-2007, 14:09
chi comprerà quei 48 core stai tranquillo che saparà come sfruttarli e lo fara

illuminaci allora!:stordita: come farà?

dawid999
18-06-2007, 14:10
le case cinematografiche forse sapranno sfruttarla,noi non di certo

gabi.2437
18-06-2007, 14:10
@geometra91: ho una mezza idea, anzi, una idea intera, calcoli scientifici?

mDsk
18-06-2007, 14:10
Nella notizia sia sta parlando di Gpu e non di Cpu.

esatto! e non serviranno certo a far girare ut2099 & co... ma per calcoli scientifici...
la nasa e la ricerca sulle cellule staminali ringraziano...:D

un altra cosa... certo che la intel può permettersi di lavorare a ste cose ma perchè non l'ha fatto nvidia/ati visto che lavorano sulle gpu da tanto ormai?

drakend
18-06-2007, 14:14
Scusate ma cos'è un trilione? :confused:

coschizza
18-06-2007, 14:15
illuminaci allora!:stordita: come farà?

non puoi confrontare i 1-2-4 core delle cpu recenti con il numero 32-48 core pensando che siano la stessa cosa

nel primo caso parliamo di cpu normali tutte complete e autosufficienti per poter gestire tutto anche un intero SO dasole

i core che invece fanno parte di queste particolati CPU_GPU sono delle unità che hanno il vantaggio non nell'essere complete ma tante e molto piccole.

alla fine software professionali o scientifici che possono trarre vantaggi da n° core sono la maggioranza.

il fatto è che all'utente normale è improbabile che servano tali potenze ma di fatto i software che lo fanno magari ci sono senza che lo sappiamo, un esempio pratico:

fai finta di usare l'OFFICE 2003 e mettere diciamo uan macro molto pesante in 100 celle del programma, in tutte le versioni dell'office dalle origini a questa in specifico il programma avrebbe eseguito la marco in 1 unico thread e quindi in 1 unico core della cpu, in sequenza.

usando invece l'OFFICE 2007 se tu avessi avuto ipoteticametne uan cpu con 100 core il software avrebbe potuto utilizzare tutti perche in questa nuova versione ad ogni cella è associato un thread diverso. Alla fine magari pochi sanno questo proprio perche all'utente consumer queste cose non danno nessun vantaggio pratico ma pero a chi serve puo cambiare il lavoro e di molto.

nellosamr
18-06-2007, 14:27
chissà come va nel folding@home!!!

Marco71
18-06-2007, 14:28
...in notazione scientifica equivale ad 1*10^12 (ergo 1000 miliardi)....
In questo caso di floating.points.operations.per second suppongo (ma non lo do per scontato) in standard I.E.E.E 754-754R/854.
Il paradigma dei computers a parallelismo a grana "grossa" non è mai tramontato da molti anni a questa parte...
Chi si ricorda dei Transputers InMOS oppure degli array sistolici di cui si poteva leggere sulle riviste specializzate quando Intel presentò l'80386, sa di cosa parlo...
Che dire poi della Connection Machine con 65535 processori (grana "fine") ?
C'è da dire che per sfruttare tale livell odi parallelismo presente e futuro, molto sarà a carico dei compilatori...sperando che non accada come con le due I.E.U del Pentiumn U-V che nel caso di codice sub-ottimale costringevano l'elaborazione in ambito prettamente sequenziale.
Thanks.

Marco71.

jappilas
18-06-2007, 14:46
un altra cosa... certo che la intel può permettersi di lavorare a ste cose ma perchè non l'ha fatto nvidia/ati visto che lavorano sulle gpu da tanto ormai?perchè queste ultime lavorano a componenti per grafica e gaming che evolvono integrando funzioni ed aumentando le caratterisitiche di versatilità e programmabilità, ma in modo cumulativo
mentre questa soluzione intel parte direttamente dall' integrazione di un numero più o meno elevato di unità di calcolo (di cui si dice che supportino un subset dell' instruction set x86) senza necessariamente altra logica che in una GPU tipicamente presente e dedicata a funzioni specifiche - come le unità ROPs o di antialiasing, o di geometry tessellation
d' altra parte la news conclude esplicitamente conNonostante l'architettura sia quella di una GPU, per il momento attuale Larrabee non dovrebbe trovare applicazione in tradizionali architetture grafiche; detto in altri termini, quindi Intel prevede di indirizzare Larrabee come processore di calcolo parallelo particolarmente avanzato e non come GPU grafica di ultima generazione.quindi, chi sperava in intel per creare un terzo polo nel mercato delle VGA da gioco in concorrenza ad nvidia e AMD, probabilmente resterà deluso...

hibone
18-06-2007, 14:48
beh la cosa più divertente è che tutti discutono per arrivare a dire
sfruttassero bene i 2 core che già hanno anzichè sfornarne 200

peccato che intel non faccia software ma hardware...

chissenefrega se nessuno li sfrutterà, per lo meno per ora...
l'importante che ci siano...
poi si vedrà

kralin
18-06-2007, 15:04
LI VOGLIO ORA!!!!!!!!!

gabi.2437
18-06-2007, 15:13
hibone, sono core per roba scientifica..........

liviux
18-06-2007, 15:32
Non mi è chiaro...
Perché le chiamano "GPU", se di "graphics" non hanno nulla.
A che serve l'IA (ossia la compatibilità con le istruzioni x86) su un processore che dovrebbe far girare software compilato ad hoc? Ci sono instruction set più semplici e adatti a questo scopo. Inoltre, immagino che i core in questione siano più semplici possibile, quindi non credo che contengano un traduttore di istruzioni come quello che permette alle CPU x86 attuali di essere RISC dentro e CISC fuori.
Sarà davvero un trilione (1000 bilioni, 1000000 miliardi), oppure una traduzione di "trillion" (1000 "billions", cioè 1000 miliardi)? Credo la seconda. Purtroppo i "billions" degli americani sono 1000 volte più piccoli dei "bilioni" nostrani (caso più unico che raro :D )

tutti79
18-06-2007, 15:57
LI VOGLIO ORA!!!!!!!!!

Mi hai fatto venirein mente la bambina che c'era nel film 'la fabbrica di cioccolato', quella che voleva gli scoiattoli che lavoravano sulle noci

elevul
18-06-2007, 16:35
Scusate ma cos'è un trilione? :confused:

http://it.wikipedia.org/wiki/Trilione

iva
18-06-2007, 16:38
@hibone:
alla intel facciamo anche software e siamo pure in tanti!

Ci sono diversi tool e librerie per agevolare, nel modo piu' trasparente possibile, gli sviluppatori che lavorano migrando il software/scrivendone di nuovo per sfruttare piu' core (e non 2 solamente)

Il threading puo' essere fatto a diversi livelli di granularita' e non solo le applicazioni scientifiche riescono a sfruttare piu' core, purtroppo questa e' una cosa che leggo quasi ogni giorno su hwupgrade.

Non metto link, non voglio fare pubblicita', ma non ci vorrebbe tanto a trovare le informazioni in rete prima di sparare sentenze...
(ah dimenticavo, il software intel per linux puo' essere utilizzato gratuitamente per progetti opensource)

Demin Black Off
18-06-2007, 16:48
Sono destinati ad applicazioni scientifiche in parallelo, ad esempio segmentazione di immagini mediche.

djbill
18-06-2007, 17:07
Sono destinati ad applicazioni scientifiche in parallelo, ad esempio segmentazione di immagini mediche.

Ma non mi è chiara una cosa... Ammesso che questa scheda mi possa essere utile (per esempio nel render 3d e con boinc), questi core sono aggiuntivi e specifici per i calcoli a virgola mobile e funzionano in paralello alle cpu o servono programmi scritti ad hoc per usarla...?

tiMo
18-06-2007, 17:40
@hibone:

(ah dimenticavo, il software intel per linux puo' essere utilizzato gratuitamente per progetti opensource)

mi risulta che la licenza intel per l'utilizzo del suo software sotto linux a fini non commerciali sia cambiata. Ho letto che esendo molto piu' restrittiva di prima non permette di fare granche', e molte persone sui forum si sono lamentate.
[OT
Visto che tu lavori alla Intel forse ci puoi chiarire questo punto, in particolare mi interessa l'uso di compilatori fortran per progetti open source.
OT]

Grazie ciao

tiMo

kelendil
18-06-2007, 18:27
Comunque, quando si programma del software ottimizzato al multicore, non importa quanti core ci siano... Verranno sfruttati tutti i necessari. Quindi finiamola di dire "cominciassero a ottimizare per i dual core"... 2 o duecento, stesso software per sfruttarlo...

iva
18-06-2007, 18:41
@tiMo

in breve la licenza gratutita e' utilizzabile per progetti "non-commercial" definiti cosi':
"Non-commercial means you are not getting compensated in any form for the products and services you develop using these Intel® Software Development Products"

Quindi se in qualsiasi modo si e' compensati, anche indirettamente, per il lavoro bisogna comunque acquistare la licenza.
Esempio classico e' il lavoro di ricerca all'universita': anche se di solito si scrive software non commerciale, si e' pagati indirettamente per il lavoro che si fa e quindi la licenza "non-commercial" non va bene (ci sono licenze academic molto piu' economiche di quelle normali ma pur sempre a pagamento)

ecco il link alle FAQ sui progetti "non-commercial":
http://www.intel.com/cd/software/products/asmo-na/eng/219692.htm

In effetti rileggendola bene la licenza e' molto piu' restrittiva rispetto alla classica GPL...

spero di essere stato di aiuto, ciao!

Il Capitano
18-06-2007, 19:44
Scusate ma cos'è un trilione? :confused:
10^15 ;)
o in ambito informatico 2^40 :)

Eraser|85
18-06-2007, 20:10
ho partecipato ad un seminario della Intel e dire che non fanno software.. è diciamo una cazzata immane (e mi trattengo..). Sviluppano software che aiutano un casino i developers, software in grado di farti vedere graficamente che thread ti rallenta il programma, quanto tempo altri thread restano in attesa delle risorse o dell'output di un'altro thread, etc.. programmi con i controc@zzi diciamo..

inoltre ci terrei a fare una piccola precisazione.. chi crede che un programma fatto per i dual core non scali con cpu multi-core sta prendendo un abbaglio: questo perché chi si prende la briga di trasformare il proprio software da single threaded a multi-threaded non si limita a creare due soli thread, ognuno per core.. piuttosto cerca quei punti in cui il proprio programma richiede molta potenza elaborativa e spezza in tante parti quelle operazioni, ciascuna poi viene associata ad un thread separato.

Il numero di thread in genere dipende dall'algoritmo (se si appresta all'essere parallelizzato tantissimo o per nulla) e non dalle CPU (chi programma non sa su che processore girerà e quindi non sa quanti core avrà a disposizione)..

In genere quindi un programma scritto multi-threaded dovrebbe scalare piuttosto bene anche aumentando il numero di core senza la necessità di dover riscrivere nulla..

Ovvio è che sfruttare 48 core non è campo per i programmi "più casalinghi" (anche se scritti a regola d'arte) ma per ambiti scientifici/militari

ironmanu
18-06-2007, 20:16
illuminaci allora!:stordita: come farà?

beh nell'ambito home e gaming non ci si fa nulla, nell'ambito professionale ci si puo' fare molto.

Esempio (non so se win server supporti 4 connessioni remote contemporanee):

Tipico programma di calcolo scientifico simulativo con licenza che viaggia sugli 80000 euro, compro un'unica licenza + 4 macchine minime da usare come terminali.
Posso avere 4 utenti in contemporanea e ciascuno puo' sfruttare fino ad 8 core in contemporanea e tiassicura che la potenza non è mai troppa!

mjordan
18-06-2007, 20:28
Non mi è chiaro...
Perché le chiamano "GPU", se di "graphics" non hanno nulla.
A che serve l'IA (ossia la compatibilità con le istruzioni x86) su un processore che dovrebbe far girare software compilato ad hoc? Ci sono instruction set più semplici e adatti a questo scopo. Inoltre, immagino che i core in questione siano più semplici possibile, quindi non credo che contengano un traduttore di istruzioni come quello che permette alle CPU x86 attuali di essere RISC dentro e CISC fuori.
Sarà davvero un trilione (1000 bilioni, 1000000 miliardi), oppure una traduzione di "trillion" (1000 "billions", cioè 1000 miliardi)? Credo la seconda. Purtroppo i "billions" degli americani sono 1000 volte più piccoli dei "bilioni" nostrani (caso più unico che raro :D )


Secondo me pure è stata tradotta grezzamente la parola trillion in trilioni. Infatti considerando lo standard internazionale, se fossero veramente trilioni di operazioni, significherebbe che il teraflop di potenza sarebbe già roba vecchia. Se fossimo nel campo dei trilioni di operazioni, allora avremmo performance nell'ordine dell'exaflop, e non staremmo a parlare di teraflop.
Purtroppo l'inglese tutti lo parlano ma lo conoscono in pochi.

MCMXC
18-06-2007, 23:40
Rendering 3D a palla!!!!*_________*

bonzuccio
19-06-2007, 00:05
Non ha futuro questa cosa e non ha niente di nuovo il Cell ha invertito la tedenza con un core gp circondato da unità specializzate, basta qualche cell in parallelo (che già gode della produzione in scala e di gente ce ci lavora da un bel po) per togliere senso a questo illogico mostro, non esiste un processore general purpose che possa stare con altri 30 core per essere sfruttato per quello che costa e che scalda

mjordan
19-06-2007, 00:53
Non ha futuro questa cosa e non ha niente di nuovo il Cell ha invertito la tedenza con un core gp circondato da unità specializzate, basta qualche cell in parallelo (che già gode della produzione in scala e di gente ce ci lavora da un bel po) per togliere senso a questo illogico mostro, non esiste un processore general purpose che possa stare con altri 30 core per essere sfruttato per quello che costa e che scalda

A che ci servono le prove, le recensioni, i test, le esperienze degli utenti e i settori scientifici e l'innovazione tecnologica, quando abbiamo bonzuccio sul forum! :doh:
Glielo potevi dire pure prima alla Intel, ora che lo sapranno si mangeranno le mani... :asd:
Forse gli ingegneri Intel erano cosi bravi a scuola che non hanno mai imparato a copiare... :rotfl:

markenforcer
19-06-2007, 01:18
Come già detto ci sono applicazioni che usano tutti i core disponibili.
Grafica e audio in primis (Cubase sx, Logic audio). Se parliamo da videogiocatori del 2007 allora sì che ci facciamo di mille core?? Ma se parliamo da musicisti che motano audio direi che i core non sono mai abbastanza.

Crux_MM
19-06-2007, 08:20
Si..48 core per Crysis..argh..--.--

bonzuccio
19-06-2007, 09:38
A che ci servono le prove, le recensioni, i test, le esperienze degli utenti e i settori scientifici e l'innovazione tecnologica, quando abbiamo bonzuccio sul forum! :doh:
Glielo potevi dire pure prima alla Intel, ora che lo sapranno si mangeranno le mani... :asd:
Forse gli ingegneri Intel erano cosi bravi a scuola che non hanno mai imparato a copiare... :rotfl:

hai ragione :asd:

matteoscor89
19-06-2007, 11:57
48 core? per calcoli e render possono servire ma un utente medio non se ne farebbe nulla...

io vado ancora a single core e vedo che nei giochi non prendo paga dai dual...solo nei render di rhino e qualche calcolo tipo super pi il single core è più lento...

il dual core o 4 o 1000 saranno utili quando le applicazioni li sfrutteranno...per il mometno non cambia quasi niente...

tiMo
19-06-2007, 16:05
@tiMo

in breve la licenza gratutita e' utilizzabile per progetti "non-commercial" definiti cosi':
"Non-commercial means you are not getting compensated in any form for the products and services you develop using these Intel® Software Development Products"

Quindi se in qualsiasi modo si e' compensati, anche indirettamente, per il lavoro bisogna comunque acquistare la licenza.
Esempio classico e' il lavoro di ricerca all'universita': anche se di solito si scrive software non commerciale, si e' pagati indirettamente per il lavoro che si fa e quindi la licenza "non-commercial" non va bene (ci sono licenze academic molto piu' economiche di quelle normali ma pur sempre a pagamento)

ecco il link alle FAQ sui progetti "non-commercial":
http://www.intel.com/cd/software/products/asmo-na/eng/219692.htm

In effetti rileggendola bene la licenza e' molto piu' restrittiva rispetto alla classica GPL...

spero di essere stato di aiuto, ciao!

Grazie, come si sospettava il punto è che un ricercatore non credo possa utilizzare il software anche se lo impiega per progetti non-profit tipo free software non necessariamente legati alla propria posizione istituzionale.

ciao

tiMo

mjordan
19-06-2007, 21:04
hai ragione :asd:

Mi fa piacere che hai preso la cosa con un pizzico di auto ironia :mano:

mjordan
19-06-2007, 21:18
Grazie, come si sospettava il punto è che un ricercatore non credo possa utilizzare il software anche se lo impiega per progetti non-profit tipo free software non necessariamente legati alla propria posizione istituzionale.

ciao

tiMo

Certo che si può. La licenza non fa riferimento a nessuna "posizione istituzionale" ma solo al tipo di lavoro che si va a fare. Se non è legato con l'area di ricerca in questione (leggasi lavoro) lo si può usare come chiunque altro. Che poi i ricercatori in orari di lavoro facciano sempre tutt'altro da quello per cui vengono pagati è un altro discorso. :asd: :asd:

abla
19-06-2007, 23:19
Sbaglio o su questa testata avevo letto (qualche mese fa) che un'università in japo aveva sviluppato un procio con 512 core 60W? :sofico:

PERO' non trovo più l'articolo :muro:

darkquasar
20-06-2007, 03:47
le ultime geforce 8600 e 8700 hanno già 32 core: sono quelli che finora sono stati comunemente chiamati "pipelines".

Non c'è nulla di eclatante nel fatto che una GPU di Intel che uscirà tra 2 anni, che nel mondo dell'informatica sono un'eternità, avrà 32 core: esistono già adesso GPU del genere.

Secondo me un articolo che cerca di "fare rumore" giocando sul significato della parola "core", ha poca considerazione dei lettori e svilisce notevolmente il livello di hwupgrade.
Ma tant'è...

tiMo
20-06-2007, 11:05
Certo che si può. La licenza non fa riferimento a nessuna "posizione istituzionale" ma solo al tipo di lavoro che si va a fare. Se non è legato con l'area di ricerca in questione (leggasi lavoro) lo si può usare come chiunque altro.

Leggi meglio

Q. I am engaged in academic research. Can I use the non-commercial product?
A. If you, as an individual, are receiving any form of compensation for the research project (i.e., you receive a salary, or funding, etc.), you do not qualify for a non-commercial use license. However, you may qualify for the academic license

la faccenda non e' chiara se sai come funziona il finanziamento alla ricerca in Italia.


Che poi i ricercatori in orari di lavoro facciano sempre tutt'altro da quello per cui vengono pagati è un altro discorso. :asd: :asd:

Questo lo dici tu, :rolleyes:

BTW se cosi' non fosse almeno in parte non avresti nemmeno linux e molte altre cose .... ma se la cosa non ti e' chiara e' inutile stare a spiegare ;)

mjordan
21-06-2007, 00:04
Leggi meglio

Q. I am engaged in academic research. Can I use the non-commercial product?
A. If you, as an individual, are receiving any form of compensation for the research project (i.e., you receive a salary, or funding, etc.), you do not qualify for a non-commercial use license. However, you may qualify for the academic license

la faccenda non e' chiara se sai come funziona il finanziamento alla ricerca in Italia.


Io ci leggo solo che se fai qualsiasi cosa che non è correlata alla ricerca per cui vieni pagato, puoi usare la versione gratuita. Se fai qualcosa di correlato alla ricerca devi usare la versione academic e se fai qualcosa di commerciale devi comprare la full licence. Non ci vuole mica molto a capirlo. Del resto fuori le ore di lavoro uno non è piu' un ricercatore ma un cristiano come tutti gli altri. :rolleyes:


Questo lo dici tu, :rolleyes:

BTW se cosi' non fosse almeno in parte non avresti nemmeno linux e molte altre cose .... ma se la cosa non ti e' chiara e' inutile stare a spiegare ;)

Certo che lo dico io, lo vedo quasi tutti i giorni. E' chiaro che la generalizzazione non va mai bene, ma per una buona percentuale è cosi. Chiaramente mi riferisco all'università e non a enti di ricerca privati o sezioni di ricerca e sviluppo di aziende.
P.S.: Linux al 90% è scritto da gente per il quale i sistemi operativi sono una professione. La mia idea di "ricercatore" è la stessa identica idea di Hans Riser, nè piu' nè meno. Se ti infastidisce, dimmi che non capisco una mazza. Ma dillo pure di lui. :asd:

tiMo
21-06-2007, 11:09
Io ci leggo solo che se fai qualsiasi cosa che non è correlata alla ricerca per cui vieni pagato, puoi usare la versione gratuita. Se fai qualcosa di correlato alla ricerca devi usare la versione academic e se fai qualcosa di commerciale devi comprare la full licence. Non ci vuole mica molto a capirlo. Del resto fuori le ore di lavoro uno non è piu' un ricercatore ma un cristiano come tutti gli altri. :rolleyes:



Ripeto, la cosa non e' chiara se sai come funziona il finanziamento alla ricerca in Italia. Dipende anche dal tipo di inquadramento dei ricercatori (anche all'estero) se ti interessa se ne puo' discutere, tu la fai troppo semplice.

Certo che lo dico io, lo vedo quasi tutti i giorni. E' chiaro che la generalizzazione non va mai bene,

Bene, allora parla per la tua esperienza personale e cerca di non generalizzare, questo e altri forum sono pieni di gente che generalizza a sproposito, a mio modesto avviso uno degli atteggiamenti piu' pericolosi e superficiali, per non dire offensivi.


ma per una buona percentuale è cosi. Chiaramente mi riferisco all'università e non a enti di ricerca privati o sezioni di ricerca e sviluppo di aziende.

Vedi sopra .... :rolleyes:
di quali universita' parli? di che percentuale si tratta? hai una fonte sicura da citare?

Si fa' sempre piu' fatica ad avere una discussione civile su argomenti piu' o meno tecnici che sia degna di essere chiamata tale.

saluti

tiMo