Qualcuno potrebbe aiutarmi a comprendere il principio dietro l'idea del constant-field scaling?
Sul famoso libro di Y. Taur, Fundamentals of Modern VLSI Devices, viene spiegato che storicamente l'aumento di densità di integrazione si è ottenuta scalando, in un transistore, tutti i parametri geometrici e la
di una costante k al fine di mantenere costante il campo elettrico per questioni di reliability. Capisco i vantaggi in termini di area, potenza dinamica e ritardi, ma non mi è chiaro il significato dietro reliability in questo caso: cosa giustificava, esattamente, di imporsi una scaling rule così "rigida"?
Spero che la sezione sia giusta.
Vi ringrazio per il tempo.

Elettrotecnica e non solo (admin)
Un gatto tra gli elettroni (IsidoroKZ)
Esperienza e simulazioni (g.schgor)
Moleskine di un idraulico (RenzoDF)
Il Blog di ElectroYou (webmaster)
Idee microcontrollate (TardoFreak)
PICcoli grandi PICMicro (Paolino)
Il blog elettrico di carloc (carloc)
DirtEYblooog (dirtydeeds)
Di tutto... un po' (jordan20)
AK47 (lillo)
Esperienze elettroniche (marco438)
Telecomunicazioni musicali (clavicordo)
Automazione ed Elettronica (gustavo)
Direttive per la sicurezza (ErnestoCappelletti)
EYnfo dall'Alaska (mir)
Apriamo il quadro! (attilio)
H7-25 (asdf)
Passione Elettrica (massimob)
Elettroni a spasso (guidob)
Bloguerra (guerra)