Pagine

Si presentava però un problema: come ottenere tali prestazioni?

I tecnici decisero di utilizzare soluzioni decisamente avveneristiche. La Cache L2 di 256KB sarebbe stata integrata On Die, e questa avrebbe viaggiato alla stessa frequenza della CPU. Per massimizzare questa caratteristica Jalapeno avrebbe avuto una frequenza base di 600 Mhz, con picchi per le versioni più costose di 1GHz. Non solo, la Cache L2 sarebbe stata utilizzata anche per stockarvi le texture dei giochi, e lo stesso sarebbe accaduto per la memoria di sistema. Questo avrebbe permesso di utilizzare un solo frame buffer condiviso, con un discreto aumento delle prestazioni.

Consci che le vecchie Sdram non avrebbero potuto garantire una bandwidth sufficiente per un utilizzo videoludico, seppure di basso livello, i tecnici di Cyrix decisero di utilizzare una nuova memoria dalle latenze bassissime, la RDRAM di Rambus. Qualcuno storcerà il naso per questa scelta, ricordando i prezzi di tali memorie, ma si deve considerare il quadro nel suo insieme. NS e Rambus formularono un accordo di massima secondo il quale se la prima fosse riuscita a convincere qualche OEM a produrre PC preassemblati con Jalapeno, Rambus avrebbe ceduto le royalties delle proprie memorie ad un prezzo di favore, conoscendo il mercato di riferimento. E questo prezzo di favore si sarebbe esteso anche nel mercato Retail. Comunque, non essendo accaduto nulla di tutto ciò, non possiamo immaginare cosa avessero studiato NS e Rambus per evitare l'utilizzo di tali memorie sulle schede madri Intel.

Le RDRAM si resero necessarie per limitare il problema della latenza e della banda, caratteristiche importantissime per le memorie delle schede video. Mentre le DRAM PC-133 avevano una latenza teorica di 82.5 ns e una banda teorica di 1.064 GB/s, le RDRAM PC-800 possedevano una latenza di 45 ns e una banda di 1,6GB/s. Il tutto, abbinato al Memory Controller On Die (XpressRAM 2), avrebbe permesso a Jalapeno prestazioni di buon livello. Considerando che le RDRAM lavorano in Dual Channel, la banda sarebbe stata di ben 3,2 GB/s!

 

Estratto di un'intervista a Kevin McDonough, CEO di Cyrix tra il 1998 e il 1999. MaximumPC, Dicembre 1998.

 

All'inizio del 1999, poiché lo sviluppo cominciava a prolungarsi eccessivamente, vista la portata del progetto, fu deciso di cambiare il Core utilizzato, passando dall'MII all'MIII (Nome in codice “Chayenne”), a quel tempo in sviluppo. Intel e AMD con la presentazione, rispettivamente, del Pentium III e del K7 stavano prendendo il largo dal punto di vista delle prestazioni x86 pure.

Il Core MIII, seppure fosse inferiore al K7, nel 1999 la CPU più veloce, sarebbe stato comunque un ottimo Core x86. Avrebbe posseduto due ALU (il K7 ne aveva tre), sarebbe stato come i concorrenti Out-of-Order, avrebbe avuto un'architettura Super-Pipelined di 11 stadi (K7 ne aveva 10), così da scalare ottimamente in frequenza, oltre il gigahertz, ed avrebbe integrato le istruzioni più utilizzate, le MMX e le 3DNow!. Anche la scheda audio integrata probabilmente sarebbe stata migliorata, passando dai 16 Bit ai 24 Bit.