Overclock

3.3462414578487 (878)
Inviato da amalia 12/04/2009 @ 11:09

Tags : overclock, microprocessori, componenti, hardware, computer, high tech

ultime notizie
Futuremark ha annunciato la più grande gara di overclock - Dinox PC Hardware
Al concorso, che si terrà dal 18 Maggio al 14 Giugno, potranno partecipare giocatori, DIY ed overclockers dall´Europa, dall´Asia e dall´America per vincere il titolo di Lord of Overclocking per la propria regione. Futuremark prevede oltre 200.000...
La gente riscopre le CPU AMD, effetto overclock - Tom's Hardware Guide
"Prezzi e capacità di overclock stimolano la domanda di CPU Phenom II. AMD, perciò, recupera quote di mercato a Intel." Se il mercato delle GPU integrate e discrete non sembra, ultimamente, far segnare la riscossa di AMD, il mercato delle CPU sembra...
Potenzialità in overclock della HD 4770 - PcTuner.net
Qualcuno ha messo alla prova la nuova nata di casa ATI ed è emerso che il core RV640, realizzato a 40nm, appare molto propenso all'overclock, eppure in rete circolano rumors riguardo al fatto che ATI non vorrebbe versioni "factory-overclocked" della HD...
AMD presenta una Radeon HD 4890 da 1 GHz - PCWorld
Overclock di fabbrica per il chip Radeon HD 4890 che raggiunge il gigahertz con raffreddamento ad aria. AMD ha presentato un aggiornamento della propria GPU ATI Radeon HD 4890 che aumenta la frequenza operativa in fabbrica ottenendo prestazioni e...
N285GTX SuperPipe 2G OC: l'overclock di MSI - BitCity
La scheda grafica MSI N285GTX SuperPipe 2G OC combina 2 GByte di memoria video e la Tecnologia MSI SuperPipe. MSI ha presentato la scheda grafica N285GTX OC SuperPipe 2G. Questa scheda si basa sulla Gpu Nvidia GeForce GTX 285, che offre 240 stream...
ASUS ROG OC Station: questa volta ci siamo! - Dinox PC Hardware
Il produttore afferma che il pannello non è una semplice interfaccia di gestione del software di overclock, bensì agisce direttamente a livello hardware con tanto di vantaggi circa configurazione in tempo reale e stabilità. Grazie allo schermo LCD è...
Il Core i7 975 a 3.6 GHz in modalità Turbo - PcTuner.net
Il nuovo Core i7 975 integrerà la tecnologia Intel Turbo boost, che gli permetterà di passare automaticamente dai 3.33 GHz di default a 3.66 GHz operando l'overclock senza che l'utente si accorga di nulla. Questo processore sarà presentato entro giugno...
Overclock I7920 e vari bench - Özel Web Tasarım
avevo aperto gia un post nella sezione Il mio Pc, ma per i risultati dei miei bench e overclock della mia cpu e ram li posto sotto questa sezione stupenda. . Questa immagine è stata ridimensionata. Clicca qui per ingrandirla!...
Classifica CPU desktop - MAGGIO 2009 - PCself
Molte CPU di AMD con moltiplicatore sbloccato sono ideali per le operazioni di overclock. Per chi vuole un processore dual core economico caratterizzato da un buon rapporto prezzo/prestazioni, PC Self consiglia di orientarsi sulla new entry Athlon 64...

Core i7 Extreme

Logo del Core i7 Extreme

Core i7 Extreme è il nome commerciale di una serie di microprocessori x86 di nona generazione sviluppati da Intel e presentati il 17 novembre 2008.

Le CPU Core i7 Extreme, insieme alle controparti di fascia medio alta Core i7, sono le prime incarnazioni della nuova architettura Nehalem, successiva alla Intel Core Microarchitecture, e che andrà progressivamente a sostituire in tutti i settori di mercato, prendendo gradualmente il posto dei Core 2 Duo, Core 2 Quad e Core 2 Extreme.

Come ormai abitudine da parte di Intel, i processori "Extreme" vengono proposti per la fascia più alta del mercato desktop, e oltre ad avere valori di clock più elevati, vengono anche accompagnati dalla presenza del moltiplicatore sbloccato sia verso il basso che verso l'alto in modo da semplificare le operazioni di overclock tipiche di questa fascia di utenti.

La nuova architettura, comune anche al fratello minore Core i7, deriva in parte dalla "Core" dei predecessori, ma Intel ha comunque dichiarato che le innovazioni apportate sono talmente tante che è assolutamente doveroso considerare il nuovo progetto come un vero e proprio salto generazionale e non solo come un affinamento.

Per il momento Intel ha presentato solo il core Bloomfield come unico esponente della famiglia Core i7, il 17 novembre 2008. Non è ancora chiaro se esisteranno altri processori in futuro con lo stesso nome commerciale, ma è possibile che questo possa avvenire con il futuro passaggio al processo produttivo a 32 nm, atteso alla fine del 2009. Bloomfield è un processore a 4 core costruito a 45 nm e dotato sia del controller per la memoria RAM, sia del nuovo BUS seriale Intel QuickPath Interconnect (QPI).

Per la parte superiore



Overclocking

CPU con dissipatore in rame

In informatica la pratica dell'overclocking consiste nel perseguire il miglioramento delle prestazioni un componente elettronico (in genere una CPU) mediante l'aumento della frequenza di clock rispetto a quella prevista dal produttore, marchiata sul package della CPU.

Nel caso delle CPU, di cui si parla in generale ai soli fini esemplificativi, ciò che viene alterato è il segnale di clock interno del sistema, che determina quanti cicli di operazioni la CPU del computer debba eseguire nell'unità di tempo. Cambiando la frequenza alla quale questi cicli vengono eseguiti, in alcuni casi, è possibile aumentare o diminuire il numero delle operazioni nell'unità di tempo eseguite dal componente coinvolto.

A livello pratico si tratta di una operazione perfettamente legale ma che invalida istantaneamente la garanzia del prodotto oggetto della manipolazione. L'overclocking può essere eseguito in modo più o meno spinto: più avanti vengono descritti i concetti legati alla esecuzione di una operazione di overclock.

In termini più precisi, overclocking significa aumentare la frequenza di lavoro di un qualsiasi componente che ne abbia una, come ad esempio un processore. La frequenza con cui lavora un moderno processore è determinata da due parametri: la velocità ed il tipo di bus (che potrebbe, ad esempio, essere di 200 MHz) ed il moltiplicatore di tale parametro, nel nostro caso esemplificativo pari a X10. Dato l'esempio, la frequenza di lavoro del processore preso in esame sarà di 2000 MHz (bus * moltiplicatore).

In generale è possibile praticare l'overclock di tutti i componenti digitali in sistemi asincroni, composti per meglio dire da sottosistemi che operino quindi a velocità diverse. Nello specifico del nostro esempio, un qualsiasi sistema informatico ha le porte USB, la memoria di sistema, la memoria della scheda grafica, la CPU ed il bus di sistema che operano a velocità diverse: è l'architettura che procede poi a bufferizzare e gestire in modo del tutto trasparente le transizioni delle informazioni tra un componente e l'altro. In sistemi sincroni, invece, esiste una sola velocità di clock alla quale sono legate tutte le componenti del sistema: modificarla significherebbe agire sull'intero sistema, cosa che evidentemente non è possibile data la nativa eterogenia delle componenti in questione.

Tornando ad un personal computer, di solito si usa praticare overclock sulla memoria e la GPU della scheda video, nonché su memoria, bus e CPU del sistema.

Interventi di overclocking si rendono possibili dal momento che i chip che escono dalle fabbriche, progettati per lavorare a una certa frequenza, devono necessariamente tollerare frequenze superiori. Questa metodologia di produzione viene adottata per compensare il fatto che i chip prodotti possano di fatto essere più o meno validi, a seconda della purezza delle materie prime utilizzate e dell'inevitabile imprecisione dei macchinari in opera presso le filiere di produzione.

Ad esempio, un macchinario che dovesse produrre chip per operare ad una velocità di 1000 MHz con una tolleranza di 200 MHz, dovrà necessariamente produrre chip da almeno 1200 MHz nominali, per evitare che buona parte della produzione non regga le frequenze prefissate.

Gli overclockers sfruttano tali differenze per spingere i chip ai loro limiti, ed è per questo che a parità di modello alcuni chip sono più o meno "fortunati" di altri. Spesso, inoltre, diversi modelli di processore derivano da un'unica filiera produttiva: ciò spiega come può accadere che, in alcuni casi, dei modelli economici possano raggiungere facilmente le prestazioni di modelli più performanti mentre magari alcuni esemplari di questi ultimi, fatichino ad operare oltre la loro frequenza nominale.

Quando si effettua un overclock, il componente interessato potrà divenire instabile e dare luogo a fenomeni imprevisti di blocco. Il problema più grande da risolvere quando si effettuano operazioni di questo genere su un computer è mantenere una bassa temperatura di esercizio: infatti, aumentando la frequenza aumenta anche la quantità di corrente assorbita dal componente e di conseguenza il calore generato. Per dare un'idea del problema, un processore overcloccato può arrivare ad operare anche a temperature di 40-60 gradi Celsius superiori a quelli nominali indicati dal costruttore. Per questa ragione, il produttore Intel sulle proprie motherboard non implementa l'overclock, così da poter garantire ai propri utenti finali la rispondenza in esercizio dei parametri nominali dichiarati.

Per estensione, il termine è usato anche per indicare un miglioramento di un componente qualsiasi (periferica) di un computer, ma in questo caso è usato in maniera impropria. Un masterizzatore velocizzato, infatti, non è stato overcloccato ma modificato con un aggiornamento del firmware.

Nel primo caso si parla di individui che per puro spirito di sperimentazione o per passare il tempo si dilettano nel testare il limite fisico del proprio hardware: è importante chiarire, infatti, che il costruttore di una CPU raramente fornisce alla propria clientela materiale tarato su tolleranze minime.

Dunque un processore marchiato per lavorare a 2.4 GHz è stato probabilmente progettato per lavorare a 3GHz e successivamente limitato via software (o in alcuni casi via hardware) ad una frequenza inferiore, quella sull'etichetta.

In molti casi il gap (il distacco) tra queste due velocità di funzionamento è tanto ampio da rendere fortemente conveniente il tentare di sfruttarlo.

È in questi casi che l'aspetto funzionale di un overclock tende ad evidenziarsi maggiormente. Pensare di sfruttare una vecchia CPU per eseguire ad esempio un gioco che richiederebbe dell'hardware nuovo, giustifica l'esecuzione di un overclock. Stesso vantaggio si otterrebbe overcloccando un hardware utilizzato per eseguire lunge elaborazioni, quale ad esempio un secondo PC adibito alla codifica di Filmati o al rendering di grafica 3d che spesso richiedono ore.

Per eseguire un overclock di una CPU, bisogna garantire che l'hardware interessato non subisca danni: ogni processore ha come caratteristica una temperatura di core che deve essere mantenuta stabile e sotto una certa soglia.

L'aspetto fondamentale, quindi, risiede nelle questioni legate al raffreddamento del componente interessato.

Se il processore viene fatto operare ad una velocità più elevata di quella nominale, l'energia termica sviluppata dallo stesso aumenterà drasticamente con carichi elaborativi elevati (codifica filmati ad es.).

Inoltre, non sempre il sensore di temperatura interno al processore riuscirà ad essere d'aiuto, in quanto potrebbe rilevare troppo tardi un repentino innalzamento della temperatura di core. Il core per l'appunto è la parte del processore che è racchiusa dall'involucro del processore stesso, mentre il sensore di temperatura si trova spesso all'esterno o ai bordi dell'involucro.

Per ovviare a spiacevoli inconvenienti dovuti ad un surriscaldamento (overheat) della CPU (con conseguente blocco del sistema e possibili danni irreparabili all'hardware) è necessario, quindi, fare in modo che il core del processore, a sistema avviato ed a pieno regime di elaborazione, si trovi molto al di sotto della temperatura di funzionamento nominale dichiarata dal costruttore.

In un overclock convenzionale sarà sufficiente sfruttare i principi della dissipazione termica per risolvere il problema.

La configurazione ideale può essere così rappresentata.

Si possono trovare in commercio ventole con diversi gradi di rumorosità che, a parità di dimensioni, sono in grado di spostare più aria nell'unità di tempo delle ventole economiche, parametro misurato in volume di piedi al minuto (CFM). Per altre informazioni sul flusso d'aria nel case, si consiglia di vedere la voce ATX.

Una nota riguardo la pulizia risulta quantomai doverosa: un computer o un qualsiasi apparato elettronico che abbia la necessità di un raffreddamento attivo (l'utilizzo di ventole) godrà in modo inalienabile di una accurata pulizia. La polvere aspirata all'interno dei case e depositata in modo spesso del tutto casuale, può arrivare a livelli di accumulo tali da comportarsi come una "copertina", riducendo talvolta, anche pesantemente, l'efficacia del sistema di raffreddamento. Infine c'è da dire che nei case di qualità superiore alla media, per scongiurare l'accumulo eccessivo di polvere all'interno del sistema, vengono disposti dei filtri prima delle ventole il cui flusso è orientato verso l'interno del sistema: una sporadica pulizia di tali strumenti, a lungo termine non potrà che portare alla disfunzione, se non al blocco totale delle ventole di sistema, basti pensare che aziende elettroniche che adottano le normative ISO 9001 per garantirsi la qualità del proprio prodotto, gestiscono la regolare taratura degli strumenti utilizzati sulle linee di produzione a cadenza trimestrale, comprendente nella revisione, la pulizia dei filtri antipolvere.

La pasta termoconduttiva è un composto elettricamente non conduttivo a base minerale, ha la consistenza di un gel in grado di aumentare la coesione termica tra due superfici secondo quanto enunciato nel Primo principio della Termodinamica. La pasta (o gel) viene spalmata tra il processore e il dissipatore che vi è sovrapposto, viene usata universalmente, anche sui processori non interessati all'overclock.

Da pochi mesi è entrata in commercio una pasta termica molto piu' prestazionale riguardo alla conduzione termica; la sua piu' che ottima capacita' di scambiare calore è dovuta alla sua consistenza pari al 100% di metalli e varie lege. Al tatto si presenta come mercurio, ma non è assolutamente tossica; questa soluzione non ha tutti i pro dalla sua parte, infatti, essendo composta solo da metalli, è incredibilmente conduttiva elettricamente, e questo è un rischio enorme, dato che mentre si cerca di spalmarla potrebbero caderne alcune goccie sui contatti della scheda madre, andando poi a cortocircuitare il tutto quando lo si alimenta.

Per migliorare l'efficienza della superficie dissipante, caratteristica essenziale di ogni dissipatore, indicata in centimetri quadri totali e caratterizzata dal coefficiente di conduttività termica del materiale utilizzato, si può operare pulendo il vecchio dissipatore. Rimuovendo la polvere ed il grasso presenti tra le lamelle del dissipatore è possibile riportare lo stesso alla sua funzionalità caratteristica nominale ed ottimizzarne il funzionamento.

Esistono in commercio, inoltre, dissipatori con coefficiente di dissipazione molto elevato, adatti agli scopi in oggetto: l'acquisto di un dissipatore maggiorato è fortemente consigliato per garantire la buona riuscita e la stabilità a lungo termine di un overclock.

Se non si volesse utilizzare un dissipatore con coefficiente termico nominale molto elevato, è possibile migliorare la dissipazione, eseguendo l'operazione di lapping, che consiste nel rendere più piana e liscia la superficie del dissipatore per aumentarne il coefficiente di dissipazione. Questo si ottiene artigianalmente tramite carta vetrata molto fine o con paste abrasive varie. I più esperti riescono a guadagnare alcuni gradi grazie al lapping.

Fermo restando che per un overclock di tipo convenzionale è sufficiente realizzare quanto sopra riportato per garantire un corretto raffreddamento della CPU, ci sono situazioni in cui l'energia termica da dissipare è troppo elevata per garantirne la dispersione con i metodi convenzionali.

Possiamo sottolineare come per motivi "logistici" (la difficoltà a gestire alcuni sistemi di raffreddamento, che pongono problemi di coibentazione e, nel caso del ghiacchio secco e dell'azoto liquido, di dover controllare costantemente il livello del ghiacco o dell'azoto nel tolotto), alcuni sistemi di raffreddamento non sono attualmente utilizzabili per un uso quotidiano (in "daily"), ma solo per "bench", ovvero per raggiungere determinati record in termini di frequenza o di punteggio utilizzando appositi benchmark (quindi si tratta in questo caso di un utilizzo solo di alcuni minuti o ore). Possiamo dunque dire che mentre l'azoto liquido ed il ghiaccio secco sono utilizzabili soltanto per bench, il liquido "semplice" ed liquido con celle di peltier sono utilizzabili anche in daily. Il raffreddamento a "phase change", benché considerato per la maggior parte un tipico raffreddamento per bench, da alcuni appassionati è utilizzato anche per il daily.

Per raffreddare una CPU a liquido viene disposto sulla CPU un supporto all'interno del quale passa dell'acqua (analogamente a quanto avviene delle automobili con il radiatore). L'acqua viene quindi spostata con una pompa attraverso un circuito idrico fino all'esterno del case dove viene poi raffreddata tipicamente in modo attivo mediante l'uso di un radiatore ed una ventola; in alcuni casi l'acqua viene fatta transitare attraverso grandi dissipatori in alluminio alti alcune decine di centimetri che, data la loro grande superficie dissipante e le buone caratteristiche termiche nell'alluminio, non necessitano di alcuna ventola e rimangono quindi totalmente silenziosi.

L'impiego delle celle di Peltier consiste nell'accostare alla CPU, mediante pasta termica, una cella e quindi disporre il supporto di raffreddamento descritto nell'esempio precedente sopra la cella stessa. In questo modo si forza elettricamente lo spostamento dell'energia termica e si utilizza il circuito di raffreddamento per spostare all'esterno l'energia così raccolta. Il problema di questa soluzione è che può accadere che la parte esterna del processore si trovi a temperature molto basse, nonostante l'overclock, tanto da causare la formazione di condensa in quantità tali da causare il blocco/danneggiamento funzionale dell'intero sistema.

Il metodo ad immersione richiede di immergere il processore con tutta la motherboard in una sostanza liquida, non conduttiva, a base minerale e tipicamente trasparente. In questo modo oltre a sfruttare la superficie di contatto del processore predisposta dal costruttore, si riesce ad indirizzare lo scambio termico anche sulla motherboard, il retro del processore, le memorie e tutto il resto.

Dunque una soluzione di difficile approccio, ma che attualmente garantisce i risultati migliori e soprattutto le maggiori possibilità di overclock: è possibile trovare sulla rete progetti di sistemi concepiti per lavorare a 2 GHz che con questi presupposti vengono fatti operare a 4 GHz senza problemi.

Consiste nel raffreddare la cpu con l'azoto che ha una temperatura di -180°. Per fare questo si mette il liquido all'interno di un recipiente in rame detto tolotto posizionato come un dissipatore, sopra la CPU. I rischi di tale tipo di raffreddamento sono elevati.

L' alimentatore del sistema non necessita di alcuna modifica per la corretta esecuzione dell' overclock, deve comunque avere delle buone caratteristiche di potenza (per un sistema moderno ci si orienta tipicamente mai al di sotto dei 500 watt totali) e un buon sistema di stabilizzazione, soprattutto per quanto concerne la protezione dagli spike di rete.

Talvolta, nel caso l'overclock riguardi anche la velocità di funzionamento dell'FSB (Front Side Bus) delle memorie di sistema, si dovrà provvedere ad installare appositi dissipatori anche sulle memorie stesse, pena la loro disfunzione. Alternativamente, si potrà optare per l'acquisto di memorie con maggiori tolleranze di funzionamento, appositamente vendute allo scopo.

Le impostazioni necessarie a garantire il corretto settaggio della tensione di core e della velocità di clock della CPU sono, ad oggi, configurabili dal BIOS della scheda madre seguendo le istruzioni riportate sul manuale del costruttore. Precedentemente e su alcune motherboard economiche ad oggi commercializzate, si doveva operare con i ponticelli', piccoli archi metallici da unire a contatti elettrici disposti sulla scheda madre per definirne il comportamento. Tale soluzione si rivelava molto scomoda nel caso fosse necessario variare spesso la configurazione hardware di sistema.

Spesso, questo tipo di blocco riguarda anche la possibilità di variare opportunamente, in funzione dell'overclok, la tensione di core come successivamente descritto.

Terminata la verifica della precedente check list si può avviare il sistema ed, utilizzando specifici applicativi di benchmarking, controllare che memoria, CPU e sottosistema di I/O si stiano comportando normalmente. In questa fase si dovrà, inoltre, controllare che la temperatura della CPU rimanga abbondantemente sotto i livelli nominali forniti dal costruttore: per farlo si potrà far affidamento sulle sonde installate nella CPU e sulla motherboard o su ulteriori sonde specificatamente predisposte (sulle quali si farà un uso generoso di pasta termica).

Un overclock errato o eccessivo, un blocco di una ventola, un errore nel settaggio della tensione di core, possono portare alla permanente rottura di CPU, memorie ed in alcuni casi della motherboard del sistema. Una rottura di questo tipo non è coperta da alcun tipo di garanzia sul prodotto e la sua eventualità va preventivata. Inoltre sembra che l'overclock (e l'overvolt che all'overclock è quasi inevitabilmente abbinato) possa determinare un notevole incremento del fenomeno dell'elettromigrazione, determinando quindi una possibile riduzione della lunghezza della vita del componente overcloccato.

Altri elementi che si possono overcloccare analogamente alla cpu ed alle memorie di sistema, sono la GPU e le ram della scheda video.

Per aumentare le prestazioni della scheda video, si possono overcloccare tre componenti installati su di essa: il core, la memoria e gli streaming processor.

Il miglioramento consiste in un framerate maggiore dal 10 al 20%. Generalmente, nei componenti un overclok del 10% si considera il limite per un overclock sicuro, che non dovrebbe recare danni al sistema. Per non recare danni permanenti, si può aumentare gradualmente il clock di 10 Megahertz alla volta, in modo da fermarsi non appena appaiono puntini bianchi e righe colorate nello schermo.

La frequenza massima del core della scheda video, altrimenti detto GPU o microprocessore, dipende dalla tensione adoperata per alimentare la scheda, dal tipo di dissipatore montato e dai consumi energetici desiderati.

La frequenza massima raggiungibile per la memoria RAM della scheda video dipende dalla qualità dei circuiti impiegati, al di là del tipo di RAM DDR.

Gli streaming processor, o shader sono unità di calcolo che sostituiscono le vecchie pipeline delle schede video. Spesso, gli stessi produttori di schede video, nelle opzioni avanzate del CD di installazione, o in un programma dedicato, forniscono lo strumento per overcloccare l'unità di calcolo. Agendo sull'unità di calcolo, si ottiene il miglioramento più significativo delle prestazioni. Nelle schede ATI lo streaming processor è legato alla frequenza del core e non si può regolare separatamente.

Per la parte superiore



Skulltrail

La piattaforma Intel Dual Socket Extreme (più conosciuta con il nome in codice Skulltrail) è un nuovo tipo di piattaforma hardware sviluppata da Intel, durante tutto il 2007, espressamente per il settore desktop di fascia più alta, e presentata ufficialmente il 20 febbraio 2008.

Inizialmente, la piattaforma Skulltrail era stata annunciata da Intel nella primavera del 2007 in risposta al lancio dell'analoga soluzione sviluppata già a partire dal 2006 da AMD per poter fornire il massimo delle prestazioni ai propri clienti. La tecnologia concorrente era chiamata 4x4 (ma era stato reso noto anche un altro nome, Quad FX) ed era basata, almeno nella sua prima incarnazione, su 2 processori Athlon 64 FX dual core appositamente sviluppati, in modo che anche AMD potesse offrire un sistema con 4 core, al pari di quanto era in grado di offrire Intel che però raggiungeva tale scopo con sistemi molto più economici e un unico processore quad core. In realtà, il 30 novembre 2007 AMD ha dichiarato l'intenzione di sospendere lo sviluppo di tale piattaforma, per poter indirizzare tutte le risorse interne verso le piattaforme Spider basate sul nuovo processore Phenom. Il 2007 è stato infatti per AMD un anno nero con continui ritardi dei nuovi prodotti e soprattutto prestazioni non all'altezza delle aspettative. Da qui la decisione di non disperdere gli investimenti in soluzioni pensate per piccole nicchie di mercato.

La piattaforma Skulltrail per un certo periodo era stata chiamata da Intel anche con un altro nome, Intel V8, e si presumeva che sarebbe stato questo il nome commerciale della piattaforma, fino a quando l'annuncio del febbraio 2008 ha spazzato via tale ipotesi. La scelta del nome V8 in realtà non era affatto casuale ma voleva, in parte riprendere il marchio numerico utilizzato dalla tecnologia concorrente, e in parte sottolineare come le prestazioni offerte dalla piattaforma Intel erano doppie rispetto a quelle offerte da AMD, grazie soprattutto al fatto che se AMD poteva fornire un sistema da 4 core complessivi, Intel poteva arrivare fino a 8, grazie ai propri processori quad core che erano già sul mercato.

Come detto (e come il nome V8 voleva sottolineare), Skulltrail prevede la presenza di ben 8 core e, pur essendo indirizzata al mercato desktop, quindi a quello dei videogiocatori più esigenti, è interamente basata su tecnologie pensate inizialmente per il settore server, opportunamente evolute per poter accogliere anche componenti aggiuntivi (quali ad esempio schede video di ultima generazione) che difficilmente riuscirebbero ad esprimere il proprio potenziale in un sistema server tradizionale.

Nella presentazione fatta all'Intel Developer Forum della primavera 2007, Intel presentò una versione preliminare della piattaforma Skulltrail, che evidenziava ancora molto bene la propria derivazione dal settore server: tale soluzione infatti era basata su 2 Xeon DP (dual processor), per sistemi biprocessore, a 4 core Clovertown, dato che la contemporanea controparte desktop, il Core 2 Quad Kentsfield, non supportava configurazioni multiprocessore. Anche gli altri componenti del sistema derivavano da una piattaforma Xeon, e in particolare la memoria RAM, che era di tipo FB-DIMM, la stessa adottata per le soluzioni server e workstation basate sui processori Xeon delle ultime generazioni e 4 slot grafici PCI Express. L'utilizzo di memoria FB-DIMM in un sistema del genere è stato in realtà uno scotto da pagare in quanto per poter utilizzare la tradizionale memoria DDR2 o DDR3 (che avrebbero tra l'altro garantito prestazioni superiori e consumi inferiori) sarebbe stato necessario riprogettare il chipset con evidente impatto sui tempi e costi di sviluppo.

In ogni caso, già in questa prima incarnazione era presenti 4 slot PCI Express x16 per poter installare fino a 4 schede video in parallelo, anche se in quel momento l'unica tecnologia multi GPU possibile era la Crossfire di ATI Technologies/AMD.

Al momento della presentazione ufficiale, avvenuta il 20 febbraio 2008, Intel ha presentato anche il primo processore desktop specificatamente sviluppato per il funzionamento sulla piattaforma Skulltrail. Si tratta del Core 2 Extreme QX9775, basato sul core Yorkfield a 45 nm, che è di fatto una variante del modello QX9770 (clock di 3,2 GHz, BUS a 1600 MHz e cache L2 da 12 MB) ma con Socket 771 (specifico degli Xeon) e installabile quindi su una scheda madre a 2 socket come quella utilizzata dalla piattaforma Skulltrail. In realtà, Intel ha temporaneamente sospeso la vendita di tali modelli in quanto alle alte velocità soffrono di un fastidioso bug nel processo produttivo che dovrebbe essere risolto entro marzo 2008. La compagnia ha comunque precisato la piattaforma Skulltrail consigli l'utilizzo dei processori sopracitati ma non offre supporto esclusivo ad essi: derivando da una piattaforma server, è possibile installare anche qualunque altro processore Xeon DP basato sul socket 771, per un totale (al momento del lancio) di ben 43 modelli diversi (tra dual core e quad core), sebbene Intel consigli espressamente le soluzioni a 4 core Clovertown e Harpertown che è l'evoluzione a 45 nm del primo e di conseguenza è in tutto e per tutto simile al particolare modello di Yorkfield annunciato da Intel per Skulltrail.

L'unica scheda madre che è possibile utilizzare per il momento è la Intel Desktop Board D5400XS che è realizzata su un PCB a 10 strati e ha dimensioni di 33x30,5 cm; di conseguenza anche il case dovrà essere specifico, presumibilmente uno dedicato al settore workstation. Il chipset è il nuovo i5400 Seaburg che continua il supporto alla memoria FB-DIMM (a 667 MHz o 800 MHz) in configurazione quad channel al posto della usuale DDR3 per i sistemi Yorkfield, ma la grande novità rispetto ai primi annunci riguarda il fatto che Intel è ora in grado di fornire supporto ufficiale alla tecnologia Scalable Link Interface di NVidia, sebbene questo non sia stato ottenuto grazie a concessioni di licenza (che già da tempo consentono la configurazione concorrente Crossfire in tutti gli ultimi modelli di chipset Intel), ma attraverso l'installazione di 2 chipset distinti: quello Intel per la gestione generale del sistema, e uno di NVidia (chiamato nForce 100) dedicato alla gestione dei 4 slot PCI Express x16. È evidente che lo scopo principale di Intel con questa mossa è quello di spingere verso l'impiego della tecnologia SLI al posto della Crossfire che ormai appartiene ad AMD e quindi al concorrente diretto di Intel, oltre ovviamente al fatto che al momento del lancio, la tecnologia SLI offre prestazioni superiori alla concorrente.

In ogni caso, il supporto a Crossfire in Skulltrail è rimasto, ma non è ancora chiaro se sarà possibile sfruttare configurazioni fino a 3 oppure 4 schede video in parallelo, oppure non sarà possibile superare le 2 schede video.

Skulltrail, pertanto, è al momento attuale l'unica piattaforma che permetta di utilizzare alternativamente tecnologia SLI di NVidia oppure Crossfire di ATI.

Il Northbridge Intel non dispone di abbastanza linee PCI Express per gestire 4 slot x16, e quindi il compito dei chip nForce 100 presenti sulla scheda madre (in realtà sono 2 identici) è quello di fungere da switch del segnale PCI Express. Le 32 linee che escono dal northbridge, sono divise in 2 canali x16 ciascuno collegato ad un chip nForce 100 il quale ripartisce dinamicamente le 16 linee tra i 2 slot ad esso collegati. La conseguenza è che ogni slot dal punto di vista della scheda video collegata ha comunque un collegamento 16x elettrico.

Quando sono collegate solo 2 schede video, ognuna può utilizzare un collegamento a 16 linee; se invece ne vengono collegate 4, ciascuna continua a poter utilizzare un collegamento a 16 linee ma ne deve condividere l'ampiezza di banda con l'altra scheda video presente nello slot adiacente e gestito dallo stesso chip nForce 100 che ha proprio la funzione di allocare dinamicamente la banda tra le 2 schede video ad esso collegate.

In ogni caso, si tratta comunque sempre di slot PCI Express di prima generazione; l'nForce 100 ha un'architettura molto simile a quella dell'nForce 200 utilizzato da NVidia nei propri chipset nForce 780i SLI, con la differenza che quest'ultimo gestisce segnali del tipo PCI Express 2.0.

Le 2 CPU sono collegate al northbridge del chipset mediante 2 collegamenti indipendenti, al pari di quanto introdotto dai chipset predecessori di Seaburg, ma è stato disabilitato il supporto alla tecnologia di risparmio energetico SpeedStep in quanto su tale piattaforma porta a blocchi di sistema, e di conseguenza anche il consumo massimo del sistema ne risente.

Per poter supportare adeguatamente un tale insieme di componenti, Intel ha evidenziato che è necessario utilizzare alimentatori da almeno 1 KW per la configurazione base con 2 sole schede video, e fino a 1,6 KW per la configurazione top di gamma.

La scelta di Intel di impiegare 2 processori a 4 core, consente di ottenere un sistema in grado di usufruire di ben 8 core di processore, uniti alla potenza di 4 schede video operanti in parallelo. Lo spazio tra i vari slot è molto limitato, e di conseguenza non sarà possibile installare 4 schede video di fascia più alta, in quanto al momento tali schede utilizzano tutte un sistema di raffreddamento che occupa 2 slot. Una tale limitazione progettuale in un sistema pensato pensato per le massime prestazioni delude leggermente in quanto è possibile collegare fino a 3 schede con dissipatore a doppio slot o 4 a singolo slot, ma queste ultime come detto non appartengono attualmente alla fascia alta.

Per gli stessi problemi "fisici" di spazio non è possibile installare nemmeno schede video "doppie" come per esempio le NVidia GeForce 7950 GX2, dotate cioè di 2 GPU per ogni scheda; è possibile che le future generazioni di schede video a 2 GPU riescano a contenere l'ingombro in un solo slot ma in ogni caso Intel non ha mai chiarito se è possibile installare 4 schede video di questo tipo. Qualora fosse possibile si potrebbe arrivare fino a 8 schede video in parallelo, ma si tratta di una configurazione che certamente non potrà essere sfruttata con nessun videogioco per molti anni ancora, ma che nell'ambito della computazione identificata come GPGPU ovvero "General Purpose GPU", potrebbe trovare una collocazione ideale. Si tratterebbe infatti di utilizzare le schede video non per la generazione di immagini tridimensionali a video ma per l'elaborazione di specifici problemi della fisica e della medicina che si avvantaggiano dell'architettura delle moderne GPU. 8 schede video e 8 core di processore, consentirebbero di avere potenze elaborative molto alte con un "semplice" computer desktop.

Di certo si sa che tali sistemi non possono accogliere configurazioni "Triple SLI" ovvero formate da 3 schede video NVidia collegate tra loro (mentre la presenza delle 2 schede "singole", per esempio per gestire diversi output grafici è possibile). Per precisa volontà dell'azienda, possono essere installate solo 2 o 4 schede video.

Alcuni laboratori indipendenti hanno provato a "spremere" al massimo la piattaforma Skulltrail alla ricerca delle massime prestazioni possibili e tale scopo viene raggiunto ovviamente tramite l'overclock dei processori.

La stessa Intel ha sviluppato un BIOS ottimizzato appositamente per l'overclock del sistema offrendo all'utente praticamente qualsiasi regolazione possa servire durante tale pratica, eccetto una: per motivi non ancora resi noti, non è possibile agire sulla velocità della memoria RAM, e di conseguenza il tentativo di overcloccare processori diversi dal Core 2 Extreme che è l'unica famiglia di CPU Intel ad avere il moltiplicatore sbloccato, divena molto più complicato dovendo agire sul BUS di sistema che inevitabilmente influisce anche sui banchi di memoria.

Per un totale di 3647 $ per le sole CPU e scheda madre. A questo vanno aggiunti i costi per la RAM e le schede video, oltre ovviamente a quelli di tutti gli altri componenti di un sistema finito. Dato che sarebbe assurdo abbinare una tale configurazione a componenti non di prim'ordine, il costo di un sistema finito potrà superare facilmente i 5000 $.

In ogni caso, visto il supporto a ben 43 modelli diversi di processore, grazie alla compatibilità con gli Xeon DP su socket 771 (al momento del lancio di Skulltrail Intel commercializza 21 modelli quad core e 21 dual core) un utente potrebbe anche scegliere processori meno costosi che non abbasserebbero in maniera considerevole le prestazioni, ma solo il prezzo finale. Con il 50% della spesa per un processore Core 2 Extreme QX9775 è possibile acquistare un modello Xeon DP Harpertown più lento di una manciata di punti percentuali (nell'ordine del 15%), che comunque può venire in seguito overclockato grazie al buon potenziale offerto dalla scheda madre.

Diversi produttori di PC di fascia alta hanno iniziato ad offrire sistemi basati su questa piattaforma a partire già dal giorno della presentazione, tra i quali: Armari, Boxx Tech, Digital Storm, Falcon Northwest, Maingear, Puget Systems, Scan, Velocity Micro, Vigor Gaming, Voodoo, @Xi Computers.

Come detto prima, le caratteristiche tecniche della nuova piattaforma Intel evidenziano come il produttore abbia, nelle prime presentazioni al pubblico, rimarchiato (di fatto) come "Skulltrail" un sistema server dotato di processori Xeon DP Clovertown, mentre nella presentazione ufficiale di febbraio 2008, abbia apportato alcune lievi modifiche per poter offrire processori Core 2 Extreme Yorkfield (realizzati però con il socket 771 degli Xeon) e supporto alla tecnologia SLI. A parte questi lievi cambiamenti, la linea generale è rimasta quella di riutilizzare componenti server, dato che sia la scheda madre, che il chipset (che è un semplice riadattamento del chipset per Clovertown), che la RAM derivano proprio da questo settore.

Al contrario, l'approccio scelto da AMD per la propria piattaforma 4x4 era sensibilmente differente, infatti la memoria RAM era la tradizionale DDR2 unbuffered, e non quella ECC Registered richiesta dalle soluzioni server Opteron, e le differenze non si fermano qui: il chipset di AMD era l'NVidia nForce 680a, in grado di offrire fin da subito il supporto a configurazioni con doppia scheda grafica in SLI. In un certo senso però, anche AMD ha compiuto una "rimarchiatura" di alcune sue CPU: gli Athlon 64 FX pensati per la piattaforma 4x4 erano in realtà degli Opteron, dovendo essere alloggiati non nel Socket AM2 ma nel Socket F a 1207 pin, tipico dei processori per server della casa, limitandosi quindi a estendere il supporto alla memoria DDR2 tradizionale.

La differenza più evidente che comunque è rimasta tra le 2 piattaforme risiede nel numero di core messi a disposizione: Intel ne fornisce 8 mentre AMD, poteva arrivare solo fino a 4, e questo fatto sia dal punto di vista del marketing, sia delle prestazioni, è stato da subito un grosso handicap da parte di AMD. Era prevista un'evoluzione della piattaforma 4x4 per poter fornire 8 core anche da parte di AMD, grazie ai nuovi processori Phenom, ma la sospensione del progetto (annunciata a novembre 2007) unita ai continui ritardi accumulati da questi processori di nuova generazione, dei quali era prevista la variante Phenom FX specificatamente dedicata a tale piattaforma ha di fatto impedito l'arrivo sul mercato di tale sviluppo.

Ironicamente, in occasione della prima presentazione alla stampa dei nuovi processori avvenuta a maggio 2007, AMD aveva mostrato sia un sistema basato su un Phenom a 4 core a singolo socket, sia un sistema basato su 2 Phenom a 4 core, dimostrando come in quel momento il futuro di questa piattaforma era ancora ben presente nei piani di sviluppo di AMD.

A parte il problema del software che non è ancora in grado di sfruttare adeguatamente la piattaforma Skulltrail, è possibile evidenziare che alcune scelte progettuali a cui è stata costretta Intel stanno di fatto frenando le prestazioni e il calo fisiologico dei prezzi di questo tipo di soluzioni.

Tra tutte, è possibile citare l'utilizzo della memoria FB-DIMM che a parità di dimensione rispetto ad una tradizionale DDR2, costa e consuma di più, oltre ad essere più lenta. Tutto questo è dovuto al fatto che essa integra un maggior numero di protocolli di correzione degli errori e, mentre tale caratteristica rappresenta un valore aggiunto per quanto riguarda l'integrità dei dati, le prestazioni sono inferiori, e i controlli non possono essere esclusi. Rispetto ad una DDR3 invece al momento il limite è solo nelle prestazioni dato che il costo è inferiore, ma si tratta comunque di una situazione di mercato transitoria dovuta in gran parte allo scarso numero di moduli DDR3 commercializzati al momento.

A fine 2008 Intel presenterà Bloomfield, il primo processore basato sulla futura architettura Nehalem, successiva all'attuale "Core" e che sarà destinato alla fascia più alta del mercato desktop e quindi, forse, proprio all'evoluzione della piattaforma Skulltrail. Tra le sue peculiarità, comune del resto anche a tutti gli altri futuri prodotti basati su Nehalem, sarà il controller della memoria integrato. Potrebbe essere l'occasione di vedere la memoria DDR3 sulla piattaforma Skulltrail.

Per la parte superiore



Yorkfield

Yorkfield è il successore del core Kentsfield alla base dei processori Intel Core 2 Extreme, a partire dal 12 novembre 2007, e Core 2 Quad, dal 10 marzo 2008.

In realtà i modelli commercializzati come Core 2 Quad sarebbero dovuti arrivare il 20 gennaio, ma alcuni problemi di stabilità operativa dei primi esemplari hanno poi fatto slittare la data di uscita di un paio di mesi.

Secondo le prime indiscrezioni trapelate a fine 2005 sembrava che Yorkfield sarebbe dovuto essere un chip multi core, formato da ben 8 core previsto tra il 2008 e il 2009 utilizzando il processo produttivo a 45 nm e dotato di una cache L2 complessiva di ben 12 MB. Per ottenere questo si sarebbe trattato di 4 core Wolfdale (chip dual core a Die Monolitico) collegati insieme con l'approccio a Die Quadruplo in tutto simile a quello introdotto da Presler.

A fine settembre 2006 nuove informazioni descrivevano invece Yorkfield come una CPU a soli 4 core, sempre a 45 nm, attesa però nel corso del terzo trimestre 2007. La vera novità rispetto al suo predecessore avrebbe dovuto risiedere nella tecnica di realizzazione: era previsto infatti che Yorkfield venisse realizzato secondo l'approccio a Die Monolitico in cui i 4 core sarebbero stati prodotti tutti insieme consentendo di rendere la cache L2 condivisa tra tutti i core e non solo per 2 core come avviene nel predecessore Kentsfield.

Con il passare del tempo si è avuto la conferma che l'approccio di Yorkfield sarebbe rimasto molto più conservativo rispetto a quanto ipotizzato all'inizio. Seguendo la strategia già utilizzata per il predecessore Kentsfield, che viene realizzato unendo 2 core dual core a 65 nm Conroe, anche Yorkfield viene prodotto unendo 2 core dual core, che però sono i nuovi Wolfdale a 45 nm. L'approccio per realizzare una CPU del genere è quello a Die Doppio e di conseguenza la cache L2 è condivisa tra due soli core, ma la dimensione aumenta fino a 6 MB per ciascuna coppia di core, per un totale di 12 MB di cache L2.

Il nuovo quantitativo di cache L2 e le altre migliorie introdotte nell'architettura Core grazie a tutta la nuova famiglia di CPU a 45 nm, hanno aumentato di circa il 33% il numero di transistor di Yorkfield rispetto a Kentsfield, portandolo da 582 milioni a ben 820 milioni, ma grazie al nuovo processo produttivo, la superficie totale è diminuita del 25% passando da 286 mm² a soli 214 mm², consentendo quindi di migliorare ulteriormente la resa produttiva.

Il BUS è, almeno inizialmente, quello a 1333 MHz abbinato al chipset Bearlake, arrivato sul mercato a metà 2007 con i Core 2 Duo serie E6x50. Tale caratteristica tecnica dovrebbe portare un interessante beneficio prestazionale rispetto alle soluzioni quad core abbinate a BUS da 1066 MHz. Potrebbero esistere comunque alcune versioni, più conservative, con il tradizionale BUS a 1066 MHz, mentre successivamente è quasi certo anche il debutto di versioni con BUS a 1600 MHz, in abbinamento ad una particolare variante (X48) del chipset Bearlake.

Nei processori dual core e multi core si pone il problema di come sfruttare la grande dotazione di cache L2 e come gestirne l'accesso da parte dei vari core. I diversi approcci di costruzione cui si è accennato poco sopra, comportano pro e contro relativamente ai metodi di fruizione di questa preziosa memoria aggiuntiva. Buona parte di questi aspetti è evidenziata nella voce Dual core (gestione della cache), in cui si fa riferimento anche ad altri processori che sfruttano i differenti approcci.

Yorkfield incorpora quasi tutte le tecnologie sviluppate da Intel nel corso degli anni, a partire dalle ormai scontate MMX, SSE, SSE2 ed SSE3, fino ad arrivare a XD-bit, EM64T, Vanderpool e SpeedStep. Essendo basato sull'ultima evoluzione dell'architettura Core, sono state implementate anche le nuove istruzioni SSE4 per aumentare le prestazioni in ambito multimediale. Più precisamente sono state implementate solo 47 delle 54 istruzioni previste dal set SSE4 vero e proprio e per questo motivo Intel indica le nuove istruzioni inserite nelle evoluzioni a 45 nm dell'architettura Core, come SSE4.1 (dove .1 indica la prima versione); l'intero set delle istruzioni, indicato come SSE4.2 verrà incorporato solo nella futura architettura Nehalem, successiva alla Core.

Non è stata invece implementata la tecnologia Hyper-Threading ormai abbandonata da Intel nelle nuove architetture.

La differenza principale di Yorkfield rispetto al suo predecessore risiede, come detto, nel nuovo processo produttivo, che oltre ad essere maggiormente miniaturizzato, è basato su nuove tecniche di realizzazione, introdotte da Intel proprio con il nuovo processo a 45 nm (per maggiori approfondimenti su tali innovazioni si veda la relativa voce). Tali innovazioni hanno permesso di ottenere un processore molto più efficiente dal punto di vista del consumo energetico, soprattutto quando si trova a funzionare nella cosiddetta modalità "idle", ovvero quando il processore non è occupato in nessuna elaborazione e quindi la tecnologia SpeedStep abbassa il voltaggio a 0,998 V e il moltiplicatore al minimo valore consentito, vale a dire 6x. Tale impostazione, quando applicata ad un BUS a 1333 MHz, come nel caso di Yorkfield, porta il clock della CPU a 2 GHz e la cosa, per certi versi sorprendente, è che in tale modalità un processore Yorkfield consuma solo 3,79 W.

Tale valore, tanto ridotto rispetto a tutte le altre CPU in commercio, è stato reso possibile dal nuovo materiale utilizzato per la realizzazione dei transistor a 45 nm che effettivamente abbassa notevolmente il proprio consumo energetico a valori tali che il processore di punta di Intel è più "parsimonioso" in termini energetici di qualsiasi processore AMD, anche di fascia bassa, ovvero single core.

Un'altra caratteristica che contribuisce a migliorare l'efficienza complessiva di un sistema basato sui nuovi prodotti a 45 nm di Intel, è la capacità di queste CPU di segnalare alla motherboard lo stato di idle, in modo che quest'ultima possa a sua volta spegnere delle componenti per consumare meno energia.

A pieno carico, il consumo massimo è contenuto in soli 73 W, valore più basso di circa il 40% rispetto al predecessore, mentre la temperatura raggiunta è di soli 55°, circa 12° in meno rispetto a un modello Kentsfield di pari frequenza.

Le versioni commercializzate come Core 2 Quad erano previste per gennaio 2008, ma a fine 2007 Intel aveva annunciato di averne rimandato il lancio per motivi prettamente commerciali, finalizzati a non compromettere le vendite degli ancora ottimi processori a 65 nm. L'opinione comune era quindi quella che dato che i processori Phenom presentati dalla rivale AMD, avevano deluso le aspettative riguardo alle prestazioni, Intel si trovava nella posizione di non aver bisogno di giocare subito le sue carte e potesse quindi mantenere lo scettro delle prestazioni pur con prodotti "vecchi" di un anno. A metà gennaio 2008 però, il produttore ha dovuto riconoscere che il problema che l'ha spinto a rimandare il lancio di tali versioni è in realtà di natura tecnica: pare infatti che la stabilità dei nuovi processori durante i test di durata a frequenze elevate sia tutt'altro che impeccabile. Si tratterebbe di un problema che non affligge i modelli di Yorkfield già in commercio, che sono basati su un differente stepping. Lo stepping risolutivo che ha poi permesso la commercializzazione dei Core 2 Quad è il C1.

Ad aprile 2007 Intel aveva messo a confronto un processore quad core Core 2 Extreme QX6800 (basato su core Kentsfield e funzionante a 2,93 GHz, con BUS a 1066 MHz e 8 MB di cache L2) con 2 versioni dei nuovi processori a 3,33 GHz e BUS a 1333 MHz. Le differenze tra le 2 versioni consistevano nel fatto che una era una CPU Penryn dual core con 6 MB di cache L2, mentre l'altra era una versione Yorkfield quad core con 12 MB di cache L2: la versione top di gamma di Yorkfield è risultata più veloce del 15% nell'elaborazione delle immagini, il 25% più veloce nelle applicazioni di rendering 3D, più del 40% nell'esecuzione di videogiochi e oltre il 40% nella codifica video ottimizzata con il nuovo insieme di istruzioni SSE4.

Anche il confronto con la concorrenza, al momento, è spietato: il modello di punta di AMD, l'Athlon 64 X2 6400+ è mediamente più lento del 45% rispetto a Yorkfield. È vero che si tratta di una CPU daul core, ma rimane comunque il prodotto più potente della concorrenza, quindi nella fascia alta, al momento, non vi è lotta.

A fine settembre 2007, sono stati annunciati i risultati in overclock del modello a 3 GHz di Yorkfield che è poi arrivato il 12 novembre. Sono state effettuate 2 prove, con raffreddamento ad aria e ad azoto liquido. Nel primo caso è stato possibile portare la CPU fino a 4,14 GHz "semplicemente" aumentando il BUS fino a 1840 MHz; nel secondo caso, molto più estremo, il massimo clock a cui il processore rimaneva stabile è stato di 5,6 GHz, grazie però ad un BUS a 1600 MHz e al moltiplicatore impostato su un valore di 14x, invece dei 9x nominali.

Poco più di un mese dopo è stato possibile raggiungere i 10 GHz, portando il BUS a 2000 MHz e il moltiplicatore a 18x; anche in questo caso il raffreddamento era quello ad azoto liquido.

Il secondo metodo di overclock, agendo esclusivamente sulla frequenza di BUS, va ad influenzare tutto il sistema overcloccando anche la RAM e i vari BUS della scheda madre, di conseguenza dovrebbe teoricamente offrire maggiori prestazioni, dato che l'aumento di potenza viene distribuito in maniera omogenea a tutto il sistema e non solo al processore. L'architettura Core però è stata progettata per accedere alla memoria il meno possibile e la presenza di una cache L2 tanto grande, addirittura da 12 MB (2x6MB) non fa che contribuire a ridurre la dipendenza del processore dalla RAM. Per questo motivo aumentare la velocità del northbridge (che contiene il controller di memoria) del 25% fino a 400 MHz (1600 QDR) non apporta grandi miglioramenti, se non nell'ordine dello 0,5%.

Al pari di quanto fatto anche con il predecessore Kentsfield, Intel continua ad utilizzare il core pensato per l'ambito desktop, in questo caso Yorkfield, anche nel settore dei server monoprocessore basati su Xeon UP (unique processor), creando la nuova piattaforma Garlow. Si tratta in sostanza di usare le stesse versioni di processore destinate normalmente al mercato desktop in sistemi pensati per l'ambito server, quindi abbinati a particolari motherboard e memorie RAM con particolari requisiti di affidabilità e prestazioni. È un modo per creare soluzioni con gli stessi requisiti di un server, senza la necessità di implementare le costose soluzioni biprocessore Xeon DP.

Ovviamente l'arrivo di questi ultimi 2 modelli ha causato un ribasso dei prezzi dei modelli precedenti.

In questo caso il Socket rimarrà comunque il 775, utilizzato anche nei desktop e non il 771, storicamente utilizzato negli Xeon bi e multiprocessore. Si tratta a tutti gli effetti di una rimarchiatura dei processori Core 2 Quad, dato che tutte le caratteristiche dei nuovi processori Xeon UP, prezzo compreso, sono esattamente le stesse delle controparti destinate al settore desktop.

Nota: la tabella soprastante è un estratto di quelle complete contenute nelle pagine del Core 2 Extreme e Core 2 Quad.

Intel non ha ancora lasciato trapelare nulla riguardo al successore di Yorkfield, ma non è escluso che, al pari di quanto avverrà per la controparte dual core Wolfdale, il successore comune possa essere Bloomfield, primo processore a 4 core realizzato secondo l'approccio a Die Monolitico e basato sulla futura architettura Nehalem, successiva alla Intel Core.

Per la parte superiore



Intel Desktop Board D5400XS

La Intel Desktop Board D5400XS è la prima scheda madre sviluppata da Intel come base della piattaforma desktop Intel Dual Socket Extreme più conosciuta con il nome in codice Skulltrail) e destinata alla fascia più alta del mercato, ed è stata presentata contestualmente al lancio di tale piattaforma il 20 febbraio 2008.

Intel ha inizialmente sviluppato la piattaforma Skulltrail per contrastare l'analoga soluzione proposta a fine 2006 da AMD, e conosciuta con il nome di 4x4 (o anche Quad FX).

In realtà Skulltrail partiva già avvantaggiata in quanto poteva ospitare 2 CPU a 4 core rispetto alle 2 CPU dual core della rivale (e per sottolineare tale caratteristica Intel ha per un certo tempo chiamato la sua piattaforma anche con il nome di Intel V8). Lo sviluppo di 4x4 però è stato poi interrotto da parte di AMD il 30 novembre 2007 per poter indirizzare tutte le risorse interne verso le piattaforme Spider basate sul nuovo processore Phenom. Il 2007 è stato infatti per AMD un anno nero con continui ritardi dei nuovi prodotti e soprattutto prestazioni non all'altezza delle aspettative. Da qui la decisione di non disperdere gli investimenti in soluzioni pensate per piccole nicchie di mercato.

Sebbene non fosse più strettamente necessario il lancio della piattaforma Skulltrail, il produttore aveva comunque ormai in gran parte completato il suo sviluppo ed è quindi stato deciso di presentarla ugualmente.

La piattaforma Skulltrail al momento è basata su un'unica scheda madre, la "Intel Desktop Board D5400XS" appunto. Essa è realizzata su un PCB a 10 strati e ha dimensioni di 33x30,5 cm, pari cioè a quelle per il mercato server e workstation e infatti il suo sviluppo deriva proprio da questo tipo di soluzioni, come testimoniano le sue caratteristiche, in tutto e per tutto simili a quelle presenti anche in tali prodotti.

Innanzitutto si tratta di una scheda madre a doppio socket, e in particolare può ospitare 2 processori su Socket 771, tipico delle soluzioni Xeon DP (per sistemi biprocessore. Anche il chipset è lo stesso adottato sulle schede madri server contemporanee, si tratta dell'i5400 Seaburg che offre il supporto alla memoria FB-DIMM (a 667 MHz o 800 MHz) in configurazione quad channel al posto della usuale DDR3 per i sistemi desktop tradizionali.

Le 2 CPU sono collegate al northbridge del chipset mediante 2 collegamenti indipendenti, al pari di quanto introdotto dai chipset predecessori di Seaburg, ma è stato disabilitato il supporto alla tecnologia di risparmio energetico SpeedStep dei processori in quanto su tale piattaforma porta a blocchi di sistema, e di conseguenza anche il consumo massimo del sistema ne risente.

Alcune differenze rispetto alle schede madri sa server comunque ci sono: innanzitutto, sebbene la scheda sia in grado di ospitare qualunque processore Xeon DP basato sul socket 771, per un totale (al momento del lancio) di ben 43 modelli diversi (tra dual core e quad core) basati sui core Clovertown e Harpertown, Intel consiglia l'utilizzo di una particolare versione del processore desktop Core 2 Extreme basato su core Yorkfield e conosciuto con il processor number di QX9775, che a differenza dei corrispondenti modelli basati su Socket 775, è anch'esso basato sul Socket 771. In secondo luogo, la scheda D5400XS è la prima scheda madre di Intel a supportare la tecnologia Scalable Link Interface di NVidia, oltre a quello ormai storico per la Crossfire di ATI Technologies/AMD.

Il supporto alla tecnologia SLI non è stato ottenuto grazie a concessioni di licenza (al pari di quanto fatto per la tecnologia concorrente), ma attraverso l'installazione di 2 chipset distinti: quello Intel per la gestione generale del sistema, e uno di NVidia (chiamato nForce 100) dedicato alla gestione dei 4 slot PCI Express x16. La scheda D5400XS è pertanto, al momento attuale, l'unica che permette di utilizzare alternativamente tecnologia SLI di NVidia oppure Crossfire di ATI.

Oltre ai 4 slot PCI Express x16, sono presenti anche 2 tradizionali slot PCI a 32 bit. Per poter raffreddare adeguatamente alcuni componenti della piattaforma, tra i quali il chipset Seaburg, Intel ha dovuto sviluppare un sistema di raffreddamento particolarmente complesso: tutta la circuiteria di alimentazione del processore è dissipata da una serie di radiatori passivi in rame, mentre un dissipatore specifico è montato sul northbridge del chipset. Un secondo dissipatore, dotato però di ventola da 60 mm (tra l'altro molto rumorosa in quanto ruota ad alta velocità) e posizionato dietro gli slot PCI Express, ricopre interamente il southbridge e il bridge nForce 100.

La presenza di 4 soli slot memoria limita la quantità massima della stessa a 8 GB; si tratta di un quantitativo ampiamente sufficiente per la maggior parte degli utenti, ma che potrebbe risultare insufficiente se paragonata alla potenza che sono in grado di fornire 2 CPU quad core e 4 schede video, e di conseguenza in alcuni scenari di utilizzo potrebbe essere un quantitativo sotto dimensionato.

L'audio è gestito dal chip Sigmatel STAC9274, presente già su altre schede madri Intel di classe server. Si tratta di un chip considerato tra i migliori per l'audio integrato e in grado anche di offrire un'uscita ottica presente infatti sulla scheda. Oltre a questo è disponibile il supporto di 6 porte SATA e 10 porte USB 2.0 di cui alcune disponibili solo attraverso una scheda aggiuntiva da collegare alla scheda madre.

Il pannello delle connessioni posteriori raccoglie inoltre la porta Gigabit Lan 82573L, 2 Firewire, 2 eSATA e audio a 7.1 canali (gestito ovviamente dal chip Sigmatel), con connessioni sia analogiche che digitali, ma non sono presenti le porte PS/2, per tastiera e mouse, oltre alle seriali o alla parallela. Tra le ulteriori peculiarità di questa scheda madre da evidenziare la tecnologia di alimentazione, che prevede un connettore a 24 pin e due connettori da 8 pin.

Il northbridge Intel non dispone di abbastanza linee PCI Express per gestire 4 slot x16, e quindi il compito dei chip nForce 100 presenti sulla scheda madre (in realtà sono 2 identici) è quello di fungere da switch del segnale PCI Express. Le 32 linee che escono dal northbridge, sono divise in 2 canali x16 ciascuno collegato ad un chip nForce 100 il quale ripartisce dinamicamente le 16 linee tra i 2 slot ad esso collegati. La conseguenza è che ogni slot dal punto di vista della scheda video collegata ha comunque un collegamento 16x elettrico.

Quando sono collegate solo 2 schede video, ognuna può utilizzare un collegamento a 16 linee; se invece ne vengono collegate 4, ciascuna continua a poter utilizzare un collegamento a 16 linee ma ne deve condividere l'ampiezza di banda con l'altra scheda video presente nello slot adiacente e gestito dallo stesso chip nForce 100 che ha proprio la funzione di allocare dinamicamente la banda tra le 2 schede video ad esso collegate.

In ogni caso, si tratta comunque sempre di slot PCI Express di prima generazione; l'nForce 100 ha un'architettura molto simile a quella dell'nForce 200 utilizzato da NVidia nei propri chipset nForce 780i SLI, con la differenza che quest'ultimo gestisce segnali del tipo PCI Express 2.0.

Il supporto a 4 schede video operanti in parallelo dovrebbe consentire prestazioni molto elevate ai sistemi basati su questa scheda madre ma lo spazio tra i vari slot è molto limitato, e di conseguenza non è possibile installare 4 schede video di fascia più alta, in quanto al momento tali schede utilizzano tutte un sistema di raffreddamento che occupa 2 slot. Una tale limitazione progettuale in un sistema pensato per le massime prestazioni delude leggermente in quanto è possibile collegare fino a 3 schede con dissipatore a doppio slot o 4 a singolo slot, ma queste ultime non appartengono attualmente alla fascia alta.

Per gli stessi problemi di spazio non è possibile installare nemmeno schede video "doppie" come per esempio le NVidia GeForce 7950 GX2, dotate cioè di 2 GPU per ogni scheda; è possibile che le future generazioni di schede video a 2 GPU riescano a contenere l'ingombro in un solo slot ma in ogni caso Intel non ha mai chiarito se è possibile installare 4 schede video di questo tipo.

Di certo si sa che tali sistemi non possono accogliere configurazioni "Triple SLI" ovvero formate da 3 schede video NVidia collegate tra loro (mentre la presenza delle 2 schede "singole", per esempio per gestire diversi output grafici è possibile). Per precisa volontà dell'azienda, possono essere installate solo 2 o 4 schede video.

Alcuni laboratori indipendenti hanno provato a spingere al massimo la piattaforma Skulltrail alla ricerca delle massime prestazioni possibili tramite l'overclock dei processori. La scheda madre in questione risente pesantemente sotto questo fronte della sua derivazione server, in quanto sia il BIOS che il chipset non sono in grado di sostenere efficacemente tale situazione.

Intel ha tentato di sviluppare un BIOS ottimizzato appositamente per l'overclock del sistema offrendo all'utente praticamente qualsiasi regolazione possa servire durante tale pratica, eccetto una: per motivi non ancora resi noti, non è possibile agire sulla velocità della memoria RAM, e di conseguenza il tentativo di overcloccare processori diversi dal Core 2 Extreme che è l'unica famiglia di CPU Intel ad avere il moltiplicatore sbloccato, diventa molto più complicato dovendo agire sul BUS di sistema che inevitabilmente influisce anche sui banchi di memoria.

Uno degli obiettivi di Intel con la piattaforma Skulltrail e quindi con questa scheda madre era quello di offrire il massimo delle prestazioni anche in campo videoludico ma al momento sono pochissimi i software (e soprattutto i videogiochi) in grado di sfruttare adeguatamente la presenza di ben 8 core di processore.

Oltre a questo, è possibile evidenziare che alcune scelte progettuali a cui è stata costretta Intel stanno di fatto frenando le prestazioni e il calo fisiologico dei prezzi di questo tipo di soluzioni.

Tra tutte, è possibile citare l'utilizzo della memoria FB-DIMM che a parità di dimensione rispetto ad una tradizionale DDR2, costa e consuma di più, oltre ad essere più lenta. Tutto questo è dovuto al fatto che essa integra un maggior numero di protocolli di correzione degli errori e, mentre tale caratteristica rappresenta un valore aggiunto per quanto riguarda l'integrità dei dati, le prestazioni sono inferiori, e i controlli non possono essere esclusi. Rispetto ad una DDR3 invece al momento il limite è solo nelle prestazioni dato che il costo è inferiore, ma si tratta comunque di una situazione di mercato transitoria dovuta in gran parte allo scarso numero di moduli DDR3 commercializzati al momento.

Oltre a questo, l'utilizzo del chipset per server i5400 Seaburg, non aiuta a sfruttare a pieno le potenzialità delle 2 CPU e delle schede video in quanto è stato originariamente progettato per un settore in cui la completa stabilità è il requisito fondamentale, anche a costo di un leggero calo delle prestazioni finali. È da questa scelta, oltre a quella della memoria, che deriva lo scarso potenziale in overclock della scheda madre D5400XS.

Per la parte superiore



OCZ Technology

OCZ Technology con sede in California, a Sunnyvale, è un produttore di hardware per pc, in particolare produce memorie RAM e flash, dischi ssd, alimentatori, ventole, e dall’aprile 2008 anche notebook. Da quando nell' agosto del 2000 è entrata nel mercato dell memorie ha posto primariamente i suoi prodotti al mercato dell'hardware per computer. È famosa per l'alto margine di overclock dei suoi prodotti, in particolare delle memorie RAM, capaci di scendere a latenze impensabili per i concorrenti.

Per la parte superiore



Kentsfield

Kentsfield è il nome in codice di una CPU Intel dedicata alla fascia più alta del mercato desktop, presentata il 2 novembre 2006, come successore del core Conroe, alla base del processore Core 2 Extreme. Successivamente, a inizio 2007, Kentsfield è andato a costituire anche il primo Core 2 Quad.

Fino al core Presler, tutte le versioni Extreme Edition derivate dai Pentium D (vale a dire i Pentium Extreme Edition) erano basate sullo stesso core della versione "normale", cosa che poi è continuata con la prima versione di Core 2 Extreme che è basata sullo stesso core Conroe dei Core 2 Duo (anche se a volte viene indicato per questi processori l'uso del core Conroe XE).

Questo cambio di rotta è stato un po' un ritorno al passato per Intel, a quando proponeva i primi Pentium 4 Extreme Edition basati sul core Gallatin mentre i Pentium 4 "lisci" erano basati sui core Northwood e Prescott.

Kentsfield ha un'architettura a 4 core costituita da 2 "die" dual core di tipo Conroe, all'interno dello stesso package. Per ottenere questo risultato viene utilizzato un approccio molto simile a quello scelto per le CPU Presler, ovvero i Pentium D serie 900, che integrano invece nello stesso package 2 distinti core (single core in quel caso), non quindi basati sullo stesso blocco di silicio, collegati tra di loro.

Il metodo di realizzazione di questo chip multi core è di tipo "ibrido" infatti, considerando che Conroe viene costruito con un approccio a Die Monolitico, e che i 2 core sono collegati sul package solo in un secondo tempo con un approccio a Die Doppio è evidente che vengono combinati i vantaggi di entrambi i metodi nella realizzazione di Kentsfield.

Inizialmente Intel aveva dichiarato che i 2 "die" sarebbero stati 2 core Allendale (una versione di Conroe con cache dimezzata) ma, successivamente, tale nome in codice non è stato più menzionato e anche le versioni di processore Core 2 Duo con soli 2 MB di cache L2 vengono identificate come basate su core Conroe, al pari di quelle con 4 MB. Di conseguenza è apparso quasi subito plausibile che sebbene venisse poi indicato per Kentsfield l'utilizzo di 2 core Conroe affiancati, non necessariamente questo si sarebbe dovuto tradurre con l'implementazione di ben 8 MB di cache L2, ma più probabilmente si sarebbero avuti 4 MB totali, come del resto i primi prorotipi presentati alla stampa avevano dimostrato.

Il socket utilizzato è rimasto il 775 già utilizzato nel settore deskop per gli ultimi Pentium 4 Prescott, Pentium D e Core 2 Duo Conroe. È da precisare però che solo alcune motherboard possono supportare Kentsfield, in quanto i requisiti di alimentazione sono leggermente diversi da quelli dei Core 2 Duo.

Il 25 aprile 2006, nuove indiscrezioni indicavano un quantitativo di cache L2 doppio rispetto a quanto annunciato precedentemente, ovvero 2 cache da 4 MB l'una, una per ogni die, cioè una cache condivisa per ogni coppia di core e, successivamente, a settembre si è avuta la conferma che il quantitativo finale sarebbe stato proprio di 8 MB totali per un totale di ben 582 milioni di transistors e una superficie ovviamente doppia rispetto a quella di Conroe, vale a dire 286 mm².

I primi prototipi di processore Kentsfield erano stati sviluppati da Intel nell'ultimo trimestre 2005, utilizzando tecnologia produttiva a 65 nm con 4 MB di cache L2 e BUS a 1333 MHz, ma fu annunciato che era allo studio una possibile variante per i modelli finali che avrebbero potuto avvantaggiarsi del futuro processo a 45 nm, sebbene tale notizia, con il tempo, non abbia poi trovato ulteriori conferme e anzi tale processo è stato rimandato al successore Yorkfield.

La prima versione di Kentsfield arrivata sul mercato era alla base del Core 2 Extreme QX6700 (clock di 2,66 GHz e BUS a 1066 MHz). Alla luce di queste caratteristiche è apparso chiaro che Intel, rispetto a quanto fatto nei primi prototipi di Kentsfield, ha preferito aumentare la dotazione di cache L2 mantenendo una frequenza di BUS più conservativa, probabilmente per riuscire a contenere i consumi.

D'altra parte non è la prima volta che Intel si vede in un certo senso costretta ad abbassare la velocità di funzionamento di una nuova CPU rispetto a quelle precedentemente sul mercato. Nel caso di Kentsfield, il clock al debutto è inferiore di circa 200 MHz rispetto alla precedente versione Core 2 Extreme, la X6800 (funzionante a 2,93 GHz). Questo fatto era già accaduto alla presentazione del primo processore dual core, il Pentium Extreme Edition, dove la velocità di punta di 3,60 GHz, raggiunta con il modello single core Pentium 4 560 (core Prescott) fu ridotta fino ai 3,2 GHz per riuscire a contenere il consumo massimo. Agli inizi di aprile 2007 è arrivato anche il modello QX6800 cioè la versione a 4 core del X6800, colmando quindi definitivamente il divario prestazionale in tutte le applicazioni, anche quelle che non sono ancora in grado di sfruttare l'elevato parallelismo di un quad core.

La memoria RAM ufficialmente supportata da parte di Intel per questo processore (attraverso il chipset ovviamente) rimane la DDR2 800, al pari di quanto già fatto per Conroe. Probabimente questa scelta è legata anche al fatto che la microarchitettura "Intel Core" non è molto suscettibile alle variazione delle specifiche della memoria, come succedeva invece per la vecchia NetBurst dei Pentium 4 e Pentium D. Conseguentemente, il passaggio a DDR2 900 o DDR2 1000, difficilmente avrebbe offerto vantaggi prestazionali.

Nei processori dual core e multi core si pone il problema di come sfruttare la grande dotazione di cache L2 e come gestirne l'accesso da parte dei vari core. I diversi approcci di costruzione cui si è accennato poco sopra, comportano pro e contro relativamente ai metodi di fruizione di questa preziosa memoria aggiuntiva. Buona parte di questi aspetti è evidenziata nella voce Dual core (gestione della cache), in cui si fa riferimento anche ad altri processori che sfruttano i differenti approcci.

Kentsfield incorpora quasi tutte le tecnologie sviluppate da Intel nel corso degli anni, a partire dalle ormai scontate MMX, SSE, SSE2 ed SSE3 in versione migliorata, fino ad arrivare a XD-bit, EM64T e Vanderpool. Non manca la tecnologia di risparmio energetico SpeedStep, all'inizio messa in dubbio ma poi confermata per ovvie motivazioni. Quando non è presente alcun carico, tale tecnologia porta la frequenza di lavoro dei core a 1,6 GHz, riducendo il moltiplicatore fino a 6x.

È apparsa invece chiara fin da subito l'intenzione di non implementare la tecnologia Hyper-Threading, che anzi Intel abbandonerà progressivamente da tutta la linea di processori multi core.

Le prime prove erano riuscite a portare il modello QX6700 in overclock fino a sfiorare la barriera dei 5 GHz mantenendo la piena stabilità operativa, ovviamente utilizzando adeguati sistemi di raffreddamento ad acqua. È comunque da osservare che con l'utilizzo di 4 core, il processore, a pieno carico, consumava circa 130 W, ovvero lo stesso valore del vecchio Pentium Extreme 965, basato su core Presler. Alcune prove avevano inoltre dimostrato che l'impostazione del BUS a 1333 MHz non apportava un significativo guadagno prestazionale nemmeno nei programmi ottimizzati per sfruttare 4 CPU, come Mainconcept o 3D Studio Max.

Dal punto di vista delle prestazioni, Intel ha dichiarato fino al 70% in più di performance rispetto alla versione dual core, cioè rispetto al Core 2 Extreme X6800, basato su Conroe. Si tratta però di aumenti possibili sono con alcuni tipi di applicazioni. Mettendo a confronto il QX6800 con la sua controparte dual core, l'X6800, si ha un aumento di prestazioni del 77% ma, globalmente, effettuando test su un variegato panorama di applicazioni, la versione quad core offre circa il 13% di prestazioni complessivamente (in alcune applicazioni è perfino più lento, probabilmente a causa dello spreco di alcuni cicli di clock necessari a distribuire il carico sui vari core).

Intel ha deciso di aggiungere la lettera 'Q' all'inizio del processor number per indicare chiaramente che si tratta della versione Quad core del processore Core 2 Extreme. Così come il suo alter ego dual core, rimane anche la lettera 'X' ad indicare la natura "Extreme" della CPU, mentre il numero '6700' indica che sono state uniti due processore Core 2 Duo E6700 funzionanti appunto a 2,66 GHz.

A maggio 2007 è stato annunciato un nuovo stepping per i processori Core 2 Quad Q6600, Xeon X3220 e X3210, contrassegnato dalla sigla G0 (anziché B3) e caratterizzato da un consumo di 95W contro i 105W del precedente stepping.

In questo caso il Socket è rimasto comunque il 775, utilizzato anche nei desktop e non il 771, storicamente utilizzato negli Xeon bi e multiprocessore.

Come Conroe, anche Kentsfield è un processore che, nel settore desktop, ha continuato ad essere alla base della piattaforma Bridge Creek, pensata per i sistemi utilizzati in ambito "home", introdotta inizialmente dal Pentium D Presler.

Nel settore server invece, le piattaforme di riferimento sono 2, Kaylo e Wyloway, introdotte con le versioni di Conroe utilizzate proprio in questo settore.

Al momento non sono ancora presenti giochi in grado di sfruttare la presenza di 4 core, quindi per il videogiocatore esigente, è meglio orientarsi sul Core 2 Extreme X6800, che grazie ai suoi 200 MHz in più riesce a fornire prestazioni superiori. Si tratta dello stesso paradosso accaduto nel corso del 2005 nel passaggio dai processori single core a quelli dual core, dato che anche allora i processori erano in "anticipo sui tempi" rispetto allo sviluppo software dei videogiochi. Allora AMD, consigliava infatti ai videogiocatori la soluzione Athlon 64 FX 57, che era ancora single core e non i nuovi Athlon 64 X2, dato che la prima, grazie al clock più elevato riusciva ad avere la meglio in un ambito ancora incapace di trarre i vantaggi della computazione parallela.

Comunque già verso la fine del 2006 l'utilizzo in sistemi desktop e workstation professionali di un processore quad core come Kentsfield, non veniva sprecato in quanto con molte applicazioni le prestazioni aumentano decisamente. Tra queste si possono citare quelle nel campo del rendering 3D, i video e le elaborazioni di immagini.

Nota: la tabella soprastante è un estratto di quelle complete contenute nelle pagine del Core 2 Extreme, Core 2 Quad e Xeon.

Intel ha sospeso a novembre 2007 la produzione del primo modello di Kentsfield arrivato sul mercato, il Core 2 Extreme QX6700. La data non è stata affatto casuale ma coincideva con il rilascio del primo processore Core 2 Extreme prodotto a 45 nm e basato sul core Yorkfield. Questa mossa mirava a lasciare sul mercato solo i modelli più recenti con BUS a 1333 MHz, e inoltre il progressivo abbandono delle soluzioni a 65 nm faciliterà il passaggio alle soluzioni a 45 nm.

Il modello più longevo è invece il Q6600 la cui eliminazione graduale dal mercato è prevista per l'inizio del 2009, grazie anche alla presentazione (a fine novembre 2008) del Core 2 Quad Q8300, basato su Yorkfield ma dal costo molto contenuto.

Il successore di Kentsfield è Yorkfield, costruito a 45 nm. Si tratta di una CPU a 4 core, ottenuta dall'unione di 2 Wolfdale, dotata di 6 MB di cache L2 per ogni coppia di core (12MB totali) e dotata anche di alcuni miglioramenti generali dell'architettura (caratteristica comune a tutti i processori a 45 nm in arrivo da parte di Intel) tra i quali spicca l'introduzione delle nuove istruzioni multimediali SSE4.

Per la parte superiore



Source : Wikipedia