View Full Version : Forte calo nelle vendite di CPU a fine 2008
Redazione di Hardware Upg
03-02-2009, 11:28
Link alla notizia: http://www.hwupgrade.it/news/business/forte-calo-nelle-vendite-di-cpu-a-fine-2008_27915.html
Forte contrazione negli ultimi 3 mesi del 2008 per i produttori di processori, con aspettative tutt'altro che rosee per l'inizio 2009
Click sul link per visualizzare la notizia.
ghiltanas
03-02-2009, 11:48
beh direi che nn c'è da stupirsi, le cpu attuali sono veramente ottime e nn incentivano giustamente al cambio, garantendo una longevità maggiore. I nehalem costano sempre troppo, e quando uno fa un uso normale del pc chi glielo fa fare di cambiare magari il suo ottimo core2?
dtpancio
03-02-2009, 11:59
ripeto il discorso fatto l'altro giorno riguardo alla news sulle schede video..
a parte la crisi e altre motivazioni che sicuramente ci saranno, imho credo la flessione stia anche in cpu sebbene non proprio recenti, ancora sovradimensionate rispetto alle esigenze della stragrande maggioranza degli utenti pc.
anche l'utenza smanettona e i gamers, possono godersi benchmarks e gli ultimi blockbusters con cpu di più di due anni fa, con ancora una discreta riserva di potenza per il futuro..
sinceramente, un E6600 comperato in autunno 2006, faccio occato a 3ghz (bazzecola), non è ancora pienamente all'altezza della situazione?!
ghiltanas
03-02-2009, 12:04
c'è anche il fatto che nn stanno dando al software il tempo di sfruttare l'hardware attuale...
metallus84
03-02-2009, 12:06
concordo con la non appetibile scelta di processori a parte gli i7 che non so come vadano, questo discorso tra schede video e processori e anche schede madri e storage, porterà ad una flessione verso il basso a causa della crisi di tutto il settore.. non penso ci sia niente di strano, questo periodo cominciato con settembre 08 in europa sarà costellato di percentuali negative per ancora mesi a venire imho.
ammetto che sto aspettando una scheda madre decente am3 e il phenom 2 :) credo che per il mio pc sia ora di fare un salto di tecnologia personalmente non ho mai tenuto così tanto un pc con dentro componenti uscite così tanto tempo fa
La crisi non c'entra niente!
C'entra che ormai il boom informatico è finito!
Un tempo, lo sviluppo hardware era in continua corsa e "rincorsa" per poter supportare la rivoluzione software in atto e iniziata con i primi sistemi operativi a finestre e grafica avanzata(win 3.1 e simili)...
Oggi invece si è arrivati a sistemi hardware abbondantemente sovradimensionati per qualsiasi pacchetto software che non sia programmato estremamente male (vedi Crysis o window Vista); abbiamo a disposizione in commercio prodotti che non vengono tutt'ora sfruttati al massimo delle loro potenzialità, basta pensare ai 4 core di un comune quadcore, a tutti i processori a 64bit simultanei per ciclo di clock, ai supporti SSE3 poco usati, alle directx 10.1 delle schede Ati o al Pysics delle Nvidia...
Questa arretratezza software è presente ormai da anni ma si avverte solo ora perchè tutti eravamo abituati a cambiare pc ogni 2 anni e abbiamo continuato a farlo senza motivo solo per una nostra percezione sbagliata; ma ormai anche il più incallito e ottuso nerd del consumismo informatico si è reso conto che continuare a comprare e aggiornare allo spasmo è inutile... è continuerà ad essere inutile salvo una nuova rivoluzione software con nuove meccaniche di programmazione e nuovi linguaggi come avvenuta tra gli anni 80 e 90.
Ormai con il più fesso dei core duo e un arcaica 8800GTX puoi esprimerti e sbizzarrirti come vuoi! cosa che in proporzione si poteva are negli anni precedenti solo con sistemi al top! Addirittura io con una piattaforma ancora un pò piu vecchia faccio tutto quasi al massimo della potenza e senza avvertire il minimo bisogno di cambiare pc.
I più nerd, quelli che proprio non vogliono rinunciare alla febbre di consumismo e di acquisto di nuovo materiale hardware hanno iniziato a inventarsi nuove frontiere del mercato informatico... come quello di giocare su schermi da 30pollici a risoluzioni di 1920x1600 o giu di li... ma sono solo dei poveretti che fanno pena... mettersi a giocare a 1 metro di distanza da un normale schermo da 19pollici con 1200x1024 o mettersi a 3metri da un 30pollici (altrimenti non lo riesci a vedere tutto) con risoluzioni assurde non fa alcuna differenza... e solo un modo per giustificare la propria insana mania...
Oggi come oggi, cambiare la CPU significa cambiare tutto (a mio avviso ci sono troppi socket in commercio) quindi la gente punta sulla sostituzione della sola scheda video.
infatti mi sono pentito di non aver preso un core duo a suo tempo...
il principale problema è che il software non è che stia tanto dietro ai cambiamenti hardware, anche se sembra assurdo, quindi non ci sono grandi motivi per cambiare hardware, tant'è che la gente si compra questi dispositivi portatili e mediamente economici e con quelli ci fa più o meno tutto, significa che un hardware potente gli serve a poco a mio avviso
Andreainside
03-02-2009, 12:24
Oggi come oggi, cambiare la CPU significa cambiare tutto (a mio avviso ci sono troppi socket in commercio)
rivoglio il socket 7 :cry:
Severnaya
03-02-2009, 12:26
mamma il socket 7 quanti ricordi :D
...
I più nerd, quelli che proprio non vogliono rinunciare alla febbre di consumismo e di acquisto di nuovo materiale hardware hanno iniziato a inventarsi nuove frontiere del mercato informatico... come quello di giocare su schermi da 30pollici a risoluzioni di 1920x1600 o giu di li... ma sono solo dei poveretti che fanno pena... mettersi a giocare a 1 metro di distanza da un normale schermo da 19pollici con 1200x1024 o mettersi a 3metri da un 30pollici (altrimenti non lo riesci a vedere tutto) con risoluzioni assurde non fa alcuna differenza... e solo un modo per giustificare la propria insana mania...
peccato eri partito bene ma poi con questa vaccata ti sei sputtanato il voto finale ...
l'unico che fa pena sei te con questo discorso ... ci sono cose che si chiamano passioni ed esistono in tutti gli ambiti ...
c'è chi ha la passione delle macchine ultrapotenti, chi quella per l'ultimo cellulare e chi infine quello dell'ultimo ritrovato informatico ...
se è una cosa chete non condividi è un discorso, ma non sono sicuramente atteggiamenti che fanno pena, mentre fanno pena i giudizi come i tuoi
Euripylos
03-02-2009, 12:33
C'entra che ormai il boom informatico è finito!
A dire la verità continuerà a fare boom boom, e anche di piu di prima :>
Andreainside
03-02-2009, 12:33
mamma il socket 7 quanti ricordi :D
avevo un k5, un MII (usato quasi sempre questo) e un 233mmx. bei tempi i moltiplicatori sbloccato anche sui non-xtreme :(
beh io ho appena comprato procio ram e scheda madre perché la vecchia mobo si è fusa altrimenti non sentivo affatto l'esigenza di cambiare. e avevo un athlon 3500 con 1 gb di memoria che già tre anni fa quando l'ho preso non era un missile. se fai cose "banali" tutta questa potenza non serve più di tanto...
Euripylos
03-02-2009, 12:39
I più nerd, quelli che proprio non vogliono rinunciare alla febbre di consumismo e di acquisto di nuovo materiale hardware hanno iniziato a inventarsi nuove frontiere del mercato informatico... come quello di giocare su schermi da 30pollici a risoluzioni di 1920x1600 o giu di li... ma sono solo dei poveretti che fanno pena... mettersi a giocare a 1 metro di distanza da un normale schermo da 19pollici con 1200x1024 o mettersi a 3metri da un 30pollici (altrimenti non lo riesci a vedere tutto) con risoluzioni assurde non fa alcuna differenza... e solo un modo per giustificare la propria insana mania...
Ma che discorso è ????
che centra la distanza?? un 30 pollici è bello da vedere punto. finito li, un 50 pollici è ancora piu bello da vedere, punto anche qua.
e ancora di piu che centrano i Nerd?? mica solo i nerd comprano monitor o PC costosissimi...
qui si sta classificando troppo :>
peccato eri partito bene ma poi con questa vaccata ti sei sputtanato il voto finale ...
l'unico che fa pena sei te con questo discorso ... ci sono cose che si chiamano passioni ed esistono in tutti gli ambiti ...
c'è chi ha la passione delle macchine ultrapotenti, chi quella per l'ultimo cellulare e chi infine quello dell'ultimo ritrovato informatico ...
se è una cosa chete non condividi è un discorso, ma non sono sicuramente atteggiamenti che fanno pena, mentre fanno pena i giudizi come i tuoi
Non ti volevo offendere.
Forse, mi sono espresso male... non sto parlando di persone appassionate che nonostante siano "consapevoli" della poca utilità che ottengono in un atteggiamento del genere, continuano a farlo per passione....
Parlo di quelle persone che veramente sono "convinte" che giocare su certe risoluzioni con certi schermi sia un esperienza stravolgente e che fa una grossa differenza... e ti parlo da overcolokker amatoriale... Io sono uno che perde mezza giornata per studiare come avere 100 inutili Mhz in più.... ma resto perfettamente consapevole che sono per l'appunto "inutili".
A dire la verità continuerà a fare boom boom, e anche di piu di prima :>
Come boom informatico intendo la parola "informatica" in maniera tecnica ovvero il settore della programmazione.
Se intendi informatica nell'estrazione più commerciale del termine (ovvero informatica + telematica, più telecomunicazioni ecc) allora si...
Ma che discorso è ????
che centra la distanza?? un 30 pollici è bello da vedere punto. finito li, un 50 pollici è ancora piu bello da vedere, punto anche qua.
e ancora di piu che centrano i Nerd?? mica solo i nerd comprano monitor o PC costosissimi...
qui si sta classificando troppo :>
come che c'entra la distanza? l'occhio umano ha una precisa angolazione di visuale sfruttabile... o ti metti a 2centimetri da una miniatura o a 50metri dal David di michelangelo vedrai la stessa statuina alla stessa dimensione, quello che ti darà la percezione della sua grandezza sarà quello che vedi intorno (nel nostro caso la stanza), non l'immagine in se per se...
Oppure sei abituato ad accenderti il tuo 50pollici e a ficcartici con la testa dentro? :confused:
Gandalf76
03-02-2009, 12:56
Pensate che io ho ancora un P4HT 3ghz con scheda video 8600gt!
Sono mesi che vorrei cambiarlo ma nn so se aspettare che si abbassino gli I7 o prendermi un core2 o un quad!
E il PC lo uso molto per lavoro facendo il web designer!
Lo cambio solo perchè vedo i giochi che ormai nn mi girano + su sto pc sennò manco lo cambierei.
Euripylos
03-02-2009, 12:57
come che c'entra la distanza? l'occhio umano ha una precisa angolazione di visuale sfruttabile... o ti metti a 2centimetri da una miniatura o a 50metri dal David di michelangelo vedrai la stessa statuina alla stessa dimensione, quello che ti darà la percezione della sua grandezza sarà quello che vedi intorno (nel nostro caso la stanza), non l'immagine in se per se...
Oppure sei abituato ad accenderti il tuo 50pollici e a ficcartici con la testa dentro? :confused:
quindi secondo la tua logica dobbiamo attaccarci in faccia i monitor da 1 pollice per avere l'effetto di uno da 100.
ci manca solo che si inizia con i discorsi che i 60 fps sono inutili perche l'occhio umano ne vede solo 30 e siamo apposto :D
ma va va :>
torniamo in topic per la notizia che senno si spreca ore di lettura per nulla :>
come che c'entra la distanza? l'occhio umano ha una precisa angolazione di visuale sfruttabile... o ti metti a 2centimetri da una miniatura o a 50metri dal David di michelangelo vedrai la stessa statuina alla stessa dimensione, quello che ti darà la percezione della sua grandezza sarà quello che vedi intorno (nel nostro caso la stanza), non l'immagine in se per se...
Oppure sei abituato ad accenderti il tuo 50pollici e a ficcartici con la testa dentro? :confused:
ma che vuol dire scusa? allora siamo tutti matti a non guardare i film sul cellulare mettendolo a 5 centimetri dagli occhi perchè è come vedere un 30 pollici da più lontano... che lo compriamo a fare il TV?
L'informatica è pari: il triple channel dovevano saltarlo in favore del quad :D Del resto un controller ogni core non sarebbe stato male :D Io sono contentissimo della mia attuale piattaforma e credo che attenderò evoluzioni importanti
Danckan, nonostante alcuni punti che hai scritto siano condivisibili, hai scritto anche delle boiate incredibili!
Ma hai mai usato veramente un 30"? Sei sicuro che si utilizzi a 3 metri di distanza??? Sei sicuro che non ci sia alcuna differenza nell'esperienza di gioco tra un 20", 24" e 30"?
Hai utilizzato mai un'applicazione dove lo spazio sullo schermo non basta mai?? (e non parlo di giochi)
Io ti parlo da utente corrente sia di 17" tradizionali, 20"/24"/30" wide screen e la differenza c'e' eccome!
Ed a casa, la mia 9800 GTX+ overclockata non e' sufficiente sul 30", anche con giochi piuttosto vecchi (e informati, la risoluzione nativa dei 30" e' la WQXGA, cioe' 2560x1600, dove il numero dei pixel e' quasi il doppio rispetto al 1920x1200 di un 24").
Sei liberissimo di criticare, ma sparare sentenze dove chiaramente si capisce che non hai esperienza diretta, e' veramente triste.
Attaccarci in faccia monitor da 1 pollice è un estremizzazione che renderebbe il supporto hardware poco usabile... ed è un discorso diverso quello dell'usabilità.
Ma un 30"da 3metri o un 20" da 1 metro hanno lo stesso grado di usabilità...
Altrimenti perchè quando vai al cinema tutti vogliono evitare i posti in prima fila??? perchè lo schermo dalla prima fila è troppo grande e non si vede bene... quindi da quella distanza sarebbe meglio uno schermo più piccolo! è inutile che ti arrampichi sugli specchi...
Euripylos
03-02-2009, 13:12
Danckan, sei in torto, non provare a spiegare, che quello che dici non ha senso :> e torna in topic :>
qui parliamo di CPU cmq.
Col mio 2180 ci vado avanti altri 10 anni
Danckan, nonostante alcuni punti che hai scritto siano condivisibili, hai scritto anche delle boiate incredibili!
Ma hai mai usato veramente un 30"? Sei sicuro che si utilizzi a 3 metri di distanza??? Sei sicuro che non ci sia alcuna differenza nell'esperienza di gioco tra un 20", 24" e 30"?
Hai utilizzato mai un'applicazione dove lo spazio sullo schermo non basta mai?? (e non parlo di giochi)
Io ti parlo da utente corrente sia di 17" tradizionali, 20"/24"/30" wide screen e la differenza c'e' eccome!
Ed a casa, la mia 9800 GTX+ overclockata non e' sufficiente sul 30", anche con giochi piuttosto vecchi (e informati, la risoluzione nativa dei 30" e' la WQXGA, cioe' 2560x1600, dove il numero dei pixel e' quasi il doppio rispetto al 1920x1200 di un 24").
Sei liberissimo di criticare, ma sparare sentenze dove chiaramente si capisce che non hai esperienza diretta, e' veramente triste.
Se parli di applicazioni che richiedono spazio è un altro discorso... ma quanti sarete nel mondo che utilizzano applicazioni per cui serve così tanto spazio? siete una nicchia, ed è ovvio che con quella scheda non ti gira neanche pacman a quelle risoluzioni. Ma il tuo è il caso di un professionista con precise esigenze, non comparabile a un discorso di mercato consumer alla quale è riferita questa notizia...
per mau.c... stesso discorso di usabilità detto già all'altro tizio in precedenza... non sviamo dal discorso principale... è ovvio che stare un il cellulare in mano a vederti un film è scomodo, anche perchè a 5 centimetri stai al di sotto del primo fuoco ottico del cristallino del tuo occhio, sono casi estremizzati, e non siete per niente simpatici o sarcastici a fare esempi del genere.
Cmq... ognuno abbia le sue idee... io ho espresso la mia che è questa e ne sono convinto. A ognuno il suo punto di vista...
Attaccarci in faccia monitor da 1 pollice è un estremizzazione che renderebbe il supporto hardware poco usabile... ed è un discorso diverso quello dell'usabilità.
Ma un 30"da 3metri o un 20" da 1 metro hanno lo stesso grado di usabilità...
Altrimenti perchè quando vai al cinema tutti vogliono evitare i posti in prima fila??? perchè lo schermo dalla prima fila è troppo grande e non si vede bene... quindi da quella distanza sarebbe meglio uno schermo più piccolo! è inutile che ti arrampichi sugli specchi...
non dico di no, sulla geometria ci siamo, è sull'usabilità che mi pare assurdo. ti rendi conto che stare a un metro da un monitor non è comodo come starci a 3 metri su una poltrona? così come è scomodo avere un cellulare in faccia...
non so che intendi per usabilità, forse sarebbe stato meglio dire che offrono virtualmente lo stesso risultato... non è che non sia vero ma non è semplice geometria, c'è anche la praticità.
SwatMaster
03-02-2009, 13:17
La crisi non c'entra niente!
C'entra che ormai il boom informatico è finito!
Un tempo, lo sviluppo hardware era in continua corsa e "rincorsa" per poter supportare la rivoluzione software in atto e iniziata con i primi sistemi operativi a finestre e grafica avanzata(win 3.1 e simili)...
Oggi invece si è arrivati a sistemi hardware abbondantemente sovradimensionati per qualsiasi pacchetto software che non sia programmato estremamente male (vedi Crysis o window Vista); abbiamo a disposizione in commercio prodotti che non vengono tutt'ora sfruttati al massimo delle loro potenzialità, basta pensare ai 4 core di un comune quadcore, a tutti i processori a 64bit simultanei per ciclo di clock, ai supporti SSE3 poco usati, alle directx 10.1 delle schede Ati o al Pysics delle Nvidia...
Questa arretratezza software è presente ormai da anni ma si avverte solo ora perchè tutti eravamo abituati a cambiare pc ogni 2 anni e abbiamo continuato a farlo senza motivo solo per una nostra percezione sbagliata; ma ormai anche il più incallito e ottuso nerd del consumismo informatico si è reso conto che continuare a comprare e aggiornare allo spasmo è inutile... è continuerà ad essere inutile salvo una nuova rivoluzione software con nuove meccaniche di programmazione e nuovi linguaggi come avvenuta tra gli anni 80 e 90.
...E fin qui mi va bene. Hai ragione.
Ormai con il più fesso dei core duo e un arcaica 8800GTX puoi esprimerti e sbizzarrirti come vuoi! cosa che in proporzione si poteva are negli anni precedenti solo con sistemi al top! Addirittura io con una piattaforma ancora un pò piu vecchia faccio tutto quasi al massimo della potenza e senza avvertire il minimo bisogno di cambiare pc.
Qui si comincia a capire che stai parlando a sproposito.
I più nerd, quelli che proprio non vogliono rinunciare alla febbre di consumismo e di acquisto di nuovo materiale hardware hanno iniziato a inventarsi nuove frontiere del mercato informatico... come quello di giocare su schermi da 30pollici a risoluzioni di 1920x1600 o giu di li... ma sono solo dei poveretti che fanno pena... mettersi a giocare a 1 metro di distanza da un normale schermo da 19pollici con 1200x1024 o mettersi a 3metri da un 30pollici (altrimenti non lo riesci a vedere tutto) con risoluzioni assurde non fa alcuna differenza... e solo un modo per giustificare la propria insana mania...
Sarei tentato dal segnalarti, sinceramente. Ma non lo faccio solo per vedere dove vuoi andare a parare.
Mi stai dicendo che il CRT ultrafuffa 14" che ho in cucina mi da la stessa esperienza dell'Aquos 37" FullHD della sala? Il fatto che tu non abbia mai provato la "differenza", non significa che non ci sia. :rolleyes:
Attaccarci in faccia monitor da 1 pollice è un estremizzazione che renderebbe il supporto hardware poco usabile... ed è un discorso diverso quello dell'usabilità.
Ma un 30"da 3metri o un 20" da 1 metro hanno lo stesso grado di usabilità...
Altrimenti perchè quando vai al cinema tutti vogliono evitare i posti in prima fila??? perchè lo schermo dalla prima fila è troppo grande e non si vede bene... quindi da quella distanza sarebbe meglio uno schermo più piccolo! è inutile che ti arrampichi sugli specchi...
Per tua informazione, io mi son visto 300 in prima fila. E ti assicuro che non ho mai provato una cosa del genere. :D
Tornando IT...
...Mi pare logico che il mercato sia in contrazione. L'hardware oggi in circolazione è sottosfruttato, e non avrebbe senso passare -faccio il mio esempio- da un Q6600, che occato va da dio, ad un Q9650. Sebbene quest'ultimo abbia prestazioni superiori, sarebbe solo altra potenza gettata nel cesso. S'è visto con questi Nehalem, che non se li fila nessuno -a parte, giustamente, gli appassionati-, e imho si continuerà così fino ai 32nm almeno.
Tornando in topic in pace e amore con tutti, credo che il futuro del mercato consumer di processori sia nella riduzione graduale del TDP pur ottenendo le medesime prestazioni... è questo che il mercato sembra richiedere oggi... siamo daccordo almeno su questo? :D
Euripylos
03-02-2009, 13:22
per questa ti do ragione.
Una cosa che mi è piaciuta di piu nelle nuove serie di CPU sono basso TDP, (infatti in OC vanno che è una bellezza, 4ghz E8400 a 35° load ad aria), e una cosa che mi ha dato noia invece sono per esempio su intel i nuovi corei7 che con anche poco OC riscaldano tanto e consumano, speriamo che con i 32 nm cambiano :>
MiKeLezZ
03-02-2009, 13:24
il fatto che non vendano è facilmente spiegato
se uscisse una cpu a 64 core noi la compreremmo? no perchè tanto 62 di questi sarebbero in idle, e non è neppure detto che il software riesca a sfruttare il multicore
se uscisse una cpu a 40GHz noi la compreremmo? no perchè tanto con 3GHz fai già tutto quel che vuoi (figuriamoci poi ora che l'encoding video si sposta sulle gpu)
ormai le uniche vere motrici dell'innovazione sono le vga e gli hard disk, se uscisse una vga che permetta 90 fps in crysis a 1920x1080 e 4x aa saremmo tutti a farci la fila... così come al hdd da 10TB con tempi di accesso di 0,1ms che fa partire (s)vista in 5 secondi
Eh solitamente è sempre così... ricordo anche con i primi core duo... le nuove architetture consumano solitamente troppo e si occano troppo poco... l'architettura dei core duo ormai negli anni è stata ampiamente esplorata, analizzata e rivista ottenendo i bei risultati che hai evidenziato... Se dovessi trovarmi a cambiare pc ora, francamente mi ritroverei in un bel dilemma sullo scegliere un architettura rodata e performante come quella dei vecchi core duo o una nuova ma ancora grezza e migliorabile come nhelam... probabilmente, mettendo in contro anche il prezzo sarebbe più conveniente la prima...
Euripylos
03-02-2009, 13:30
il fatto che non vendano è facilmente spiegato
se uscisse una cpu a 64 core noi la compreremmo? no perchè tanto 62 di questi sarebbero in idle, e non è neppure detto che il software riesca a sfruttare il multicore
se uscisse una cpu a 40GHz noi la compreremmo? no perchè tanto con 3GHz fai già tutto quel che vuoi (figuriamoci poi ora che l'encoding video si sposta sulle gpu)
ormai le uniche vere motrici dell'innovazione sono le vga e gli hard disk, se uscisse una vga che permetta 90 fps in crysis a 1920x1080 e 4x aa saremmo tutti a farci la fila... così come al hdd da 10TB con tempi di accesso di 0,1ms che fa partire (s)vista in 5 secondi
bom, il fatto è che il motore grafico di crysis è ottimizzato talmente male che anche con una scheda video il doppio di quelle di ora il cambio e minimo, vedi l'esempio con le schede della serie 8xxx e quelle nuove gtx2xx su quel gioco.
pero' sono daccordo, anche ora come ora la gente preferisce altro HW anziche le CPU dato che sono soddisfacenti. (puo essere anche un'occasione per AMD :>)
il fatto che non vendano è facilmente spiegato
se uscisse una cpu a 64 core noi la compreremmo? no perchè tanto 62 di questi sarebbero in idle, e non è neppure detto che il software riesca a sfruttare il multicore
se uscisse una cpu a 40GHz noi la compreremmo? no perchè tanto con 3GHz fai già tutto quel che vuoi (figuriamoci poi ora che l'encoding video si sposta sulle gpu)
ormai le uniche vere motrici dell'innovazione sono le vga e gli hard disk, se uscisse una vga che permetta 90 fps in crysis a 1920x1080 e 4x aa saremmo tutti a farci la fila... così come al hdd da 10TB con tempi di accesso di 0,1ms che fa partire (s)vista in 5 secondi
Bhè si hai ragione, ma fino a un certo punto... guardacaso i tuoi esempi ricadono proprio su crysis e vista, i due prodotti software più emblematicamente pessimi di questo periodo.
Se te ne freghi di crysis e vista, probabilmente non cambieresti neanche il resto dei componenti....
... e una cosa che mi ha dato noia invece sono per esempio su intel i nuovi corei7 che con anche poco OC riscaldano tanto e consumano, speriamo che con i 32 nm cambiano :>
sai c'è il memory controller integrato ... è normale che scaldino e consumino di più ... poi magari il nothbridge consuma la metà di un x48 ... ma a quello non fa caso nessuno ...
Bhè si hai ragione, ma fino a un certo punto... guardacaso i tuoi esempi ricadono proprio su crysis e vista, i due prodotti software più emblematicamente pessimi di questo periodo.
..senza contare lo schifo indegno che hanno fatto con GTA 4 (che ha un mercato enormemente maggiore), rispetto al quale Crysis è un capolavoro di ottimizzazione.
Euripylos
03-02-2009, 13:51
sai c'è il memory controller integrato ... è normale che scaldino e consumino di più ... poi magari il nothbridge consuma la metà di un x48 ... ma a quello non fa caso nessuno ...
ci faccio caso, rimane il fatto che scaldano di piu con anche un poco di OC, quindi per ora li salto a pie' pari :>
Severnaya
03-02-2009, 13:58
avevo un k5, un MII (usato quasi sempre questo) e un 233mmx. bei tempi i moltiplicatori sbloccato anche sui non-xtreme :(
io voelvo quel processore ma l'avevano finito così mi comprai un p2 333 su slot A
poi x fortuna è arrivata amd a fare un pò di concorrenza :asd:
i pentium pro, mmx, mmx2 che tempi :D
ci faccio caso, rimane il fatto che scaldano di piu con anche un poco di OC, quindi per ora li salto a pie' pari :>
quando mi arriva il 920 lo provo ... poi trarrò le mie conclusioni
goldorak
03-02-2009, 14:22
A dire la verità continuerà a fare boom boom, e anche di piu di prima :>
Boom con processori in-order a prezzi scontati. ;)
Danckan ha ragione, la rivoluzione informatica basata su una interpretazioni di parte delle legge di moore e' finita. E a Intel questa situazione scoccia tremendamende, e per motivi diversi scoccia anche a Microsoft perche' non potra' piu' vendere un so a 25-30% del prezzo di un netbook che costera' si e no 200-250 €.
zerothehero
03-02-2009, 15:13
Parlo di quelle persone che veramente sono "convinte" che giocare su certe risoluzioni con certi schermi sia un esperienza stravolgente e che fa una grossa differenza... e ti parlo da overcolokker amatoriale... Io sono uno che perde mezza giornata per studiare come avere 100 inutili Mhz in più.... ma resto perfettamente consapevole che sono per l'appunto "inutili".
Guarda che c'è una differenza gigantesca tra il giocare con un 19" a 1280x720 e giocare con un 24" o un 27" a 1920x1200.
Non puoi dire che è la stessa cosa, perchè non saresti credibile. :)
Sul 100mhz in + o in meno..beh, quello sì..è inutile, anche se può divertire.
Tornando all'articolo..beh..ci sono due fattori..il primo è la crisi, il secondo è che intel secondo me ha sbagliato strategia, inondando il mercato di cpu che le garantiscono un bassissimo margine di profitto e spingendo su processori enterprise (core I7) che hanno un'architettura particolarmente costosa. Logico che se c'è crisi chi ha il portatile col core duo o un desktop con analogo processore, preferisca rimanere con quello che già ha (difficile sfruttare 8 core logici a meno di non avere un server), magari comprando un eee-pc portatile per integrare.
Poi è anche vero il fatto che due core su un portatile vanno più che bene, se non si fanno lavori particolari.
Intel dovrebbe spingere di più su una piattaforma in notebook leggera, prestazionale e in grado di avere autonomia da record.
Solo così si riuscirà a superare il pantano.
zerothehero
03-02-2009, 15:21
quando mi arriva il 920 lo provo ... poi trarrò le mie conclusioni
Il 920 è ottimo, però neanche con automkv riesco a sfruttare al 100% tutti e 8 i core logici.
Sto all'80%.
Magari sono io che sbaglio qualcosa, può essere.
Il software è ancora in larga parte inadeguato per il nehalem.
Andreainside
03-02-2009, 15:32
io voelvo quel processore ma l'avevano finito così mi comprai un p2 333 su slot A
poi x fortuna è arrivata amd a fare un pò di concorrenza :asd:
i pentium pro, mmx, mmx2 che tempi :D
slot 1. lo slot a era per i primi k7
Qualcuno l'ha detto che le stesse cpu costano di + rispetto allo stesso periodo dell'anno scorso( alla faccia della crisi) e che potrebbe essere anche questo un buon motivo per evitare l'acquisto?:D
Riprendendo una discussione in merito in un altro thread, io credo che nel futuro prossimo in cui saranno disponibili quantitativi di memoria ram molto superiori agli attuali ed prezzi inferiori, e SSD ad alta velocita` a prezzi abbordabili, la cpu tornera` ad essere determinante per le prestazioni del sistema per il semplice fatto che anche le piu` potenti oggi possono essere in alcuni casi saturate dal transfer rate di questi sistemi.
Una volta che i dati potranno essere potenzialmente letti e scritti "istantaneamente", il solo upgrade della cpu a differenza di oggi portera` ad un aumento delle prestazioni di tutto il sistema in maniera visibile.
io sono 10 giorni che sto aspettando il mio q9650..e ogni volta il negozio da dove l'ho ordinato cambia la data di arrivo..poi dicono che vendono pochi processori..bah
mirkonorroz
03-02-2009, 17:06
Per me l'utente medio dovrebbe stare un po' piu' attento al consumo in senso assoluto di un processore/pc, piuttosto che comprare rispetto al buon rapporto consumo/prestazioni puro e forse questo per qualcuno sta avvenendo in questi ultimi tempi.
Sinceramente se uscisse un processore a 64 core, si fa per dire, o comunque una cinquantina di volte piu' veloce del mio opteron 180, consumasse e scaldasse al piu' com'esso e costasse 100 euro, vorrei vedere se molti di quelli che dicono che non serve non lo comprerebbero al volo. Se anche non avessero la passione per la grafica 3d (e la fisica) gli verrebbe, probabilmente. Io finche' non ottengo 60 fps con renderers "non realtime" tipo maxwell o indigo con scene di complessita' di un film della pixar non sono contento: altro che 64 core. Comunque io non mi sentirei mai di generalizzare con frasi tipo "a noi non serve", ma userei "a me non serve" (sempre tenendo ben presente quanto possa pesare il termine "serve" ai giorni nostri).
..senza contare lo schifo indegno che hanno fatto con GTA 4 (che ha un mercato enormemente maggiore), rispetto al quale Crysis è un capolavoro di ottimizzazione.
Non farmi dire niente guarda, lo aspettavo, non è che non ci dormivo la notte ma lo aspettavo
poi, all'uscita e durante i test, salta fuori che per farlo andare come si deve ci vuole minimo una 4850 e un quad
gente con e8xxx da 6 Mb di cache tirati a 4 Ghz o poco meno che si ritrova cpu limited
ma baf..... scusate! imparate a programmare in modo efficiente e poi magari ne riparliamo :mad:
ma figuriamoci se mi vado a compare un quad solo per un gioco
Parliamoci chiaro, basta un processore da 50 euro per fsar girare qualsiasi cosa. Serve un po più di creatività, ,magari creare una CPU-GPU multi, questo sarebbe veramente inovvativo.
homoinformatico
03-02-2009, 19:44
Danckan, nonostante alcuni punti che hai scritto siano condivisibili, hai scritto anche delle boiate incredibili!
Ma hai mai usato veramente un 30"? Sei sicuro che si utilizzi a 3 metri di distanza??? Sei sicuro che non ci sia alcuna differenza nell'esperienza di gioco tra un 20", 24" e 30"?
Hai utilizzato mai un'applicazione dove lo spazio sullo schermo non basta mai?? (e non parlo di giochi)
Io ti parlo da utente corrente sia di 17" tradizionali, 20"/24"/30" wide screen e la differenza c'e' eccome!
Ed a casa, la mia 9800 GTX+ overclockata non e' sufficiente sul 30", anche con giochi piuttosto vecchi (e informati, la risoluzione nativa dei 30" e' la WQXGA, cioe' 2560x1600, dove il numero dei pixel e' quasi il doppio rispetto al 1920x1200 di un 24").
Sei liberissimo di criticare, ma sparare sentenze dove chiaramente si capisce che non hai esperienza diretta, e' veramente triste.
il problema (almeno nei giochi) è proprio questo: i (maledetti) monitor lcd. Con un tubo catodico tradizionale a crisis ci potresti giocare a 1024x768 o anche a 800x600 su una 2600 del piffero. La grafica è fica lo stesso perchè per il monitor a tubo catodico 800x600 sono una risoluzione nativa. Prova a mettere a 800x600 un 30'' lcd...
ora, io sono della personalissima e opinabilissima opinione che chi usa il pc principalmente per giocare dovrebbe evitare gli lcd come la scabbia, ma visto che il mercato non la pensa come me, come giustamente dici, se vuoi far andare qualcosa a 2560x1600 (che sono circa 5.2 volte i pixel di una risoluzione pari a 1024x768) ci vuole una scheda grafica con i controcazzi, però penso che il senso di quello che voleva dire danckan era <<se chi compra il pc per giocare facesse un acquisto più oculato (per esempio avesse un monitor tubo catodico o se proprio gli fa schifo un lcd a risoluzione umana) non dovrebbe poi cambiare scheda grafica ogni volta che una gallina fa coccode'>>
ovviamente se si usa un 30'' per motivi diversi il discorso non vale, ma il videogiocatore dovrebbe scegliere un monitor con una risoluzione nativa ragionevolmente bassa (un mio amico gioca su un televisore da 50'' stravaccato sul divano, ma la risoluzione nativa del televisore è qualcosa come 1280x900)
Severnaya
04-02-2009, 00:17
slot 1. lo slot a era per i primi k7
vero che memoria :D
cmq dal piccolo sondaggio di steam nn era emerso che la maggior parte giocava a 1680x1050? : O
OregonBeryl
04-02-2009, 09:08
Sono d'accordissimo, l'hardware non può crescere all'infinito e aspettarsi che la gente (intendo la massa, non gli enthusiast) continui a comprare.
È il software che deve migliorare o ottimizzarsi per sfruttare meglio le architetture esistenti, soprattutto il software commerciale (vedi Windows e famiglia) che fa da piattaforma per tutti gli altri applicativi.
Ma io non mi illudo: se Vista girasse bene anche su macchine con 512Mb di RAM e una modesta scheda video, tutti i requisiti hardware di altri software tipo giochi si ridimensionerebbero di conseguenza, e la corsa al rinnovo dei componenti subirebbe una battuta d'arresto.
"E noi non vogliamo che questo succeda, vero?" (dice Microsoft)
Pensate che io ho ancora un P4HT 3ghz con scheda video 8600gt! ... Lo cambio solo perchè vedo i giochi che ormai nn mi girano + su sto pc sennò manco lo cambierei.Io ho un'esperimento di qualche anno fa, un P4 Prescott HT (socket 478) che tocca i 3,6 Ghz, 2 gb di ram DDR che prende i 420 Mhz e una 7800GS su slot Agp. Con i giochi recenti ci si deve "accontentare" a 1280 x 1024 e dettagli minimi... ma per tutto il resto, è una piccola scheggia di luce impazzita....allora siamo tutti matti a non guardare i film sul cellulare mettendolo a 5 centimetri dagli occhi perchè è come vedere un 30 pollici da più lontano... che lo compriamo a fare il TV?Quoto. Secondo il mio punto di vista, per i film c'è la tv, per telefonare c'è il telefono... occhio a mischiare le cose (anche perchè provate a telefonare con un 42" al plasma :asd: ). Scherzi a parte, non posso concepire come si possa guardare un film (o la tv) su un cellulare: dopo soli 2 minuti, si perdono 4 diottrie...Altrimenti perchè quando vai al cinema tutti vogliono evitare i posti in prima fila??? perchè lo schermo dalla prima fila è troppo grande e non si vede bene...L'esempio rende: in effetti, i cinema di nuova concezione vengono realizzati senza più le (inutili) poltrone delle prime file - o meglio, tutte le "sedute" vengono spostate indietro (geniale, no? pensate quanto tempo ci hanno messo per metterla in opera, questa idea...). Tornando a noi, la crisi, la crisi... si sente parlare solo di crisi. La verità è che le cose vanno nè più nè meno come nel mercato delle automobili: il boom delle vendite c'è stato, negli anni d'oro... ma qualcuno, da qualche parte, ha fatto un paio di calcoli sbagliati, o non ha tenuto in considerazione una variabile, tanto stupida quanto fondamentale: prima o poi si arriva al punto in cui la macchina ce l'ha chiunque - tant'è che adesso per riuscire a venderti un'automobile, fanno dei numeri da circo che solo qualche anno fa si sarebbe gridato allo scandalo. E non è che uno cambia una macchina al mese: per forza che poi non se ne vende più. Lo stesso vale per le cpu, anche se qui il margine è un po' più ampio, visti i costi relativamente ridotti - io ad esempio ho un Q6600 - che utilizzo principalmente per giocare - che prende tranquillamente (e a quanto pare ha qui il suo limite naturale) i 3Ghz: anche se onestamente non vedo (sempre di giochi parlando) tutta questa superiorità se messo a paragone con un E6600, non credo che cambierò questa cpu almeno per i prossimi 3-4 anni...Ma io non mi illudo: se Vista girasse bene anche su macchine con 512Mb di RAM e una modesta scheda video, tutti i requisiti hardware di altri software tipo giochi si ridimensionerebbero di conseguenza, e la corsa al rinnovo dei componenti subirebbe una battuta d'arresto. "E noi non vogliamo che questo succeda, vero?" (dice Microsoft)Ma sembra palese a tutti, che Vista non sia uscito perchè ce ne fosse stato realmente bisogno... Cos'aveva Xp che non andava? Io per l'amor del cielo sto usando una release di Vista a 64bit da più di un anno ormai, e grossi problemi non ne ho avuti - per lo meno non gli stessi di quando era uscito Xp. Vista, se ci vogliamo parlare chiaro, è uscito brandendo la spada delle Dx10 - cosa di cui peraltro non c'era nemmeno bisogno: si vedono tanti titoli in Dx9 che lasciano a bocca aperta, e titoli in Dx10 che fanno domandare lecitamente dove sia il vantaggio di tale architettura... le chiamano "trovate commerciali"... e se uno non dice niente, ci si adegua ;)
rockroll
05-02-2009, 05:20
qualcuno ha detto:
Guarda che c'è una differenza gigantesca tra il giocare con un 19" a 1280x720 e giocare con un 24" o un 27" a 1920x1200.
Mah, gigantesca...! Siamo in presenza di un palese errore dimensionale, oppure di un'iperbole assurda.
Io non gioco dai tempi di Apple II plus, e me ne vanto, perchè almeno allora i giochi erano divertenti. Però mi scappa proprio da chiedermi: ma i cosidetti giocatori odierni, si divertono ancora a misurarsi al limite delle loro capacità, oppure si beano soltanto degli effetti visivi di contorno?
Lo scopo del gioco dovrebbe essere divertirsi anzichè cadere in deliquio davanti ad uno schermo.
(Vedendo un ragazzotto giocare a Crisys mi sono letteralmente addormentato dopo 3 minuti).
Tornado in tema (come si dice, IT?) molti hanno azzeccato l'analisi dei motivi per cui si vendono poche CPU, così come si vendono poche macchine: ormai sono cose che, una a testa almeno, le abbiamo tutti, e di quel che abbiamo ce ne avanza almeno sette volte tanto... alla faccia delle ridicole capriole commerciali messe in atto da chi vuole i nostri soldini in cambio di praticamente nulla in più...
Meditate ragazzi, meditate!
...Io non gioco dai tempi di Apple II plus, e me ne vanto, perchè almeno allora i giochi erano divertenti...Io gioco dai tempi dell'Atari 2600, e me ne vanto. Non ho mai smesso nel frattempo, e l'evoluzione dei giochi e delle macchine l'ho seguita tutta. E non posso non essere d'accordo con te quando dici che allora i giochi erano divertenti!Però mi scappa proprio da chiedermi: ma i cosidetti giocatori odierni, si divertono ancora a misurarsi al limite delle loro capacità, oppure si beano soltanto degli effetti visivi di contorno?Un po' entrambi, ci sono diverse categorie... alle quali si è unito un nuovo settore, il cosiddetto "multiplayer" (cosa che invece faccio molta fatica ad assimilare, personalmente).Lo scopo del gioco dovrebbe essere divertirsi anzichè cadere in deliquio davanti ad uno schermo.Quello che dici tu è vero, ma anche l'occhio vuole la sua parte. La risoluzione maggiore ha due vantaggi: aumentare la definizione delle immagini visualizzate ma sopratutto aumentare l'area visualizzabile - entrambe due cose che appagano la vista.Tornado in tema (come si dice, IT?) molti hanno azzeccato l'analisi dei motivi per cui si vendono poche CPU, così come si vendono poche macchine: ormai sono cose che, una a testa almeno, le abbiamo tutti, e di quel che abbiamo ce ne avanza almeno sette volte tanto... alla faccia delle ridicole capriole commerciali messe in atto da chi vuole i nostri soldini in cambio di praticamente nulla in più...Parole sante ;)
rmarango
05-02-2009, 09:59
qualcuno ha detto:
Guarda che c'è una differenza gigantesca tra il giocare con un 19" a 1280x720 e giocare con un 24" o un 27" a 1920x1200.
Mah, gigantesca...! Siamo in presenza di un palese errore dimensionale, oppure di un'iperbole assurda.
Io non gioco dai tempi di Apple II plus, e me ne vanto, perchè almeno allora i giochi erano divertenti. Però mi scappa proprio da chiedermi: ma i cosidetti giocatori odierni, si divertono ancora a misurarsi al limite delle loro capacità, oppure si beano soltanto degli effetti visivi di contorno?
Lo scopo del gioco dovrebbe essere divertirsi anzichè cadere in deliquio davanti ad uno schermo.
(Vedendo un ragazzotto giocare a Crisys mi sono letteralmente addormentato dopo 3 minuti).
Approvo in pieno...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.