Ley de Moore - Moore's law

referirse a la leyenda
Una gráfica semilogarítmica de recuentos de transistores para microprocesadores con respecto a las fechas de introducción, casi se duplica cada dos años.

La ley de Moore es la observación de que el número de transistores en un circuito integrado denso (IC) se duplica aproximadamente cada dos años. La ley de Moore es una observación y proyección de una tendencia histórica. Más que una ley de la física , es una relación empírica vinculada a las ganancias de la experiencia en la producción.

La observación lleva el nombre de Gordon Moore , cofundador de Fairchild Semiconductor e Intel (y ex CEO de este último), quien en 1965 postuló una duplicación cada año en el número de componentes por circuito integrado, y proyectó que esta tasa de crecimiento sería continuar durante al menos otra década. En 1975, mirando hacia la próxima década, revisó el pronóstico para duplicar cada dos años, una tasa de crecimiento anual compuesta (CAGR) del 41%. Aunque Moore no utilizó evidencia empírica para pronosticar que la tendencia histórica continuaría, su predicción se mantuvo desde 1975 y desde entonces se conoce como una "ley".

La predicción de Moore se ha utilizado en la industria de los semiconductores para orientar la planificación a largo plazo y establecer objetivos para la investigación y el desarrollo , funcionando así hasta cierto punto como una profecía autocumplida . Los avances en la electrónica digital , como la reducción de los precios de los microprocesadores ajustados por calidad , el aumento de la capacidad de memoria ( RAM y flash ), la mejora de los sensores e incluso el número y tamaño de píxeles en las cámaras digitales , están fuertemente vinculados a la ley de Moore. . Estos cambios escalonados en la electrónica digital han sido una fuerza impulsora del cambio tecnológico y social, la productividad y el crecimiento económico.

Los expertos de la industria no han llegado a un consenso sobre cuándo dejará de aplicarse la ley de Moore exactamente. Los arquitectos de microprocesadores informan que el avance de los semiconductores se ha ralentizado en toda la industria desde alrededor de 2010, por debajo del ritmo previsto por la ley de Moore. Sin embargo, a partir de 2018, los principales fabricantes de semiconductores han desarrollado procesos de fabricación de circuitos integrados en producción en masa que, según se afirma, siguen el ritmo de la ley de Moore.

Historia

fotografía de perfil de Gordon Moore
Gordon Moore en 2004

En 1959, Douglas Engelbart discutió la reducción de escala proyectada del tamaño de los circuitos integrados (IC) en el artículo "Microelectrónica y el arte de la similitud". Engelbart presentó sus ideas en la Conferencia Internacional de Circuitos de Estado Sólido de 1960 , donde Moore estuvo presente en la audiencia.

Ese mismo año, Mohamed Atalla y Dawon Kahng inventaron el MOSFET (transistor de efecto de campo semiconductor de óxido metálico), también conocido como transistor MOS, en Bell Labs . El MOSFET fue el primer transistor verdaderamente compacto que pudo miniaturizarse y producirse en masa para una amplia gama de usos, con su alta escalabilidad y bajo consumo de energía, lo que resultó en una mayor densidad de transistores y posibilitó la construcción de chips IC de alta densidad . A principios de la década de 1960, Gordon E. Moore reconoció que las características eléctricas y de escala ideales de los dispositivos MOSFET conducirían a un rápido aumento de los niveles de integración y un crecimiento sin precedentes en las aplicaciones electrónicas .

En 1965, se le pidió a Gordon Moore, quien en ese momento trabajaba como director de investigación y desarrollo en Fairchild Semiconductor , que contribuyera a la edición del trigésimo quinto aniversario de la revista Electronics con una predicción sobre el futuro de la industria de componentes de semiconductores en el futuro. los próximos diez años. Su respuesta fue un breve artículo titulado "Colocando más componentes en circuitos integrados". Dentro de su editorial, especuló que para 1975 sería posible contener hasta 65.000 componentes en un solo semiconductor de un cuarto de pulgada cuadrada.

La complejidad de los costos mínimos de los componentes se ha incrementado a una tasa de aproximadamente un factor de dos por año. Ciertamente, a corto plazo, se puede esperar que esta tasa continúe, si no que aumente. A más largo plazo, la tasa de aumento es un poco más incierta, aunque no hay razón para creer que no se mantendrá casi constante durante al menos 10 años.

Moore postuló una relación logarítmica lineal entre la complejidad del dispositivo (mayor densidad del circuito a un costo reducido) y el tiempo. En una entrevista de 2015, Moore señaló sobre el artículo de 1965: "... Acabo de hacer una extrapolación salvaje diciendo que continuará duplicándose cada año durante los próximos 10 años".

En 1974, Robert H. Dennard en IBM reconoció la tecnología de escalado rápido MOSFET y formuló lo que se conoció como escalado Dennard , que describe que a medida que los transistores MOS se hacen más pequeños, su densidad de potencia se mantiene constante, de modo que el uso de energía permanece en proporción con el área. La escala y la miniaturización de MOSFET han sido las fuerzas impulsoras clave detrás de la ley de Moore. La evidencia de la industria de los semiconductores muestra que esta relación inversa entre la densidad de potencia y la densidad de área se rompió a mediados de la década de 2000.

En la Reunión Internacional de Dispositivos Electrónicos de IEEE de 1975 , Moore revisó su tasa de pronóstico, prediciendo que la complejidad de los semiconductores continuaría duplicándose anualmente hasta aproximadamente 1980, después de lo cual disminuiría a una tasa de duplicación aproximadamente cada dos años. Esbozó varios factores que contribuyen a este comportamiento exponencial:

  • El advenimiento de la tecnología de semiconductores de óxido de metal (MOS)
  • La tasa exponencial de aumento en los tamaños de los troqueles, junto con una disminución en las densidades defectuosas, con el resultado de que los fabricantes de semiconductores podrían trabajar con áreas más grandes sin perder rendimientos de reducción.
  • Dimensiones mínimas más finas
  • Lo que Moore llamó "inteligencia de circuitos y dispositivos"

Poco después de 1975, el profesor de Caltech Carver Mead popularizó el término "ley de Moore". La ley de Moore finalmente llegó a ser ampliamente aceptada como un objetivo para la industria de los semiconductores, y fue citada por los competidores fabricantes de semiconductores mientras se esforzaban por aumentar la potencia de procesamiento. Moore vio la ley del mismo nombre como sorprendente y optimista: "La ley de Moore es una violación de la ley de Murphy . Todo se pone cada vez mejor". La observación incluso fue vista como una profecía autocumplida .

El período de duplicación a menudo se cita erróneamente como 18 meses debido a una predicción del colega de Moore, el ejecutivo de Intel, David House. En 1975, House notó que la ley revisada de Moore de duplicar el recuento de transistores cada 2 años, a su vez, implicaba que el rendimiento del chip de computadora se duplicaría aproximadamente cada 18 meses (sin aumento en el consumo de energía). La ley de Moore está estrechamente relacionada con el escalado MOSFET, ya que el escalado rápido y la miniaturización de los MOSFET es la fuerza impulsora clave detrás de la ley de Moore. Matemáticamente, la ley de Moore predijo que el recuento de transistores se duplicaría cada 2 años debido a la reducción de las dimensiones de los transistores y otras mejoras. Como consecuencia de la reducción de las dimensiones, la escala de Dennard predijo que el consumo de energía por unidad de área se mantendría constante. Combinando estos efectos, David House dedujo que el rendimiento del chip de computadora se duplicaría aproximadamente cada 18 meses. También debido a la escala de Dennard, este aumento de rendimiento no iría acompañado de un aumento de potencia, es decir, la eficiencia energética de los chips de computadora basados ​​en silicio se duplica aproximadamente cada 18 meses. La escala de Dennard terminó en la década de 2000. Koomey demostró más tarde que una tasa similar de mejora de la eficiencia es anterior a los chips de silicio y la Ley de Moore, para tecnologías como los tubos de vacío.

Computadora portátil grande y antigua junto a un teléfono inteligente moderno
Una computadora portátil Osborne Executive , de 1982, con una CPU Zilog Z80 de 4 MHz, y un Apple iPhone de 2007 con una CPU ARM11 de 412 MHz ; el ejecutivo tiene 100 veces el peso, casi 500 veces el volumen, aproximadamente 10 veces el costo ajustado por inflación y 1/103 de la frecuencia de reloj del teléfono inteligente .

Los arquitectos de microprocesadores informan que desde aproximadamente 2010, el avance de los semiconductores se ha desacelerado en toda la industria por debajo del ritmo previsto por la ley de Moore. Brian Krzanich , ex director ejecutivo de Intel, citó la revisión de 1975 de Moore como un precedente para la desaceleración actual, que es el resultado de desafíos técnicos y es "una parte natural de la historia de la ley de Moore". La tasa de mejora en las dimensiones físicas conocida como escala de Dennard también terminó a mediados de la década de 2000. Como resultado, gran parte de la industria de los semiconductores ha cambiado su enfoque hacia las necesidades de las principales aplicaciones informáticas en lugar del escalado de semiconductores. Sin embargo, los principales fabricantes de semiconductores, TSMC y Samsung Electronics, han afirmado seguir el ritmo de la ley de Moore con nodos de 10 nm y 7 nm en producción en masa y nodos de 5 nm en producción de riesgo.

Segunda ley de Moore

A medida que cae el costo de la energía de la computadora para el consumidor , el costo para los productores de cumplir con la ley de Moore sigue una tendencia opuesta: los costos de I + D, fabricación y pruebas han aumentado constantemente con cada nueva generación de chips. El aumento de los costos de fabricación es una consideración importante para mantener la ley de Moore. Esto había llevado a la formulación de la segunda ley de Moore , también llamada ley de Rock, que es que el costo de capital de una fábrica de semiconductores también aumenta exponencialmente con el tiempo.

Principales factores habilitantes

Una gráfica semilogarítmica de las dimensiones de la regla de diseño flash NAND en nanómetros frente a las fechas de introducción.  La regresión lineal descendente indica una disminución exponencial de las dimensiones de las características a lo largo del tiempo.
La tendencia de los MOSFET de escala de memoria flash NAND de memoria permite la duplicación de los MOSFET de puerta flotante componentes fabricados en la misma zona de la oblea en menos de 18 meses.

Numerosas innovaciones de científicos e ingenieros han sostenido la ley de Moore desde el comienzo de la era de la IC. Algunas de las innovaciones clave se enumeran a continuación, como ejemplos de avances que han avanzado la tecnología de fabricación de dispositivos semiconductores y circuitos integrados , lo que permite que el número de transistores crezca en más de siete órdenes de magnitud en menos de cinco décadas.

Los mapas de ruta de la tecnología de la industria informática predijeron en 2001 que la ley de Moore continuaría durante varias generaciones de chips semiconductores.

Tendencias recientes

gráfico animado que muestra la densidad de electrones y la corriente a medida que varía el voltaje de la puerta
Una simulación de la densidad de electrones como voltaje de puerta (Vg) varía en un MOSFET de nanocables . El voltaje umbral es de alrededor de 0,45 V. Los MOSFET de nanocables se encuentran hacia el final de la hoja de ruta de ITRS para escalar dispositivos por debajo de longitudes de puerta de 10 nm.

Uno de los desafíos clave de la ingeniería de transistores a nanoescala del futuro es el diseño de puertas. A medida que la dimensión del dispositivo se reduce, el control del flujo de corriente en el canal delgado se vuelve más difícil. Los transistores a nanoescala modernos generalmente toman la forma de MOSFET de múltiples puertas , siendo el FinFET el transistor a nanoescala más común. El FinFET tiene dieléctrico de compuerta en tres lados del canal. En comparación, la estructura MOSFET de compuerta todo alrededor ( GAAFET ) tiene un control de compuerta aún mejor.

  • Un MOSFET de compuerta todo alrededor (GAAFET) fue demostrado por primera vez en 1988, por un equipo de investigación de Toshiba dirigido por Fujio Masuoka , quien demostró un GAAFET de nanocables vertical al que llamó un "transistor de compuerta circundante" (SGT). Masuoka, mejor conocido como el inventor de la memoria flash , más tarde dejó Toshiba y fundó Unisantis Electronics en 2004 para investigar la tecnología de puertas circundantes junto con la Universidad de Tohoku .
  • En 2006, un equipo de investigadores coreanos del Instituto Avanzado de Ciencia y Tecnología de Corea (KAIST) y el Centro Nacional Nano Fab desarrollaron un transistor de 3 nm , el dispositivo nanoelectrónico más pequeño del mundo hasta el momento, basado en la tecnología FinFET.
  • En 2010, investigadores del Instituto Nacional Tyndall en Cork, Irlanda, anunciaron un transistor sin conexiones. Una puerta de control envuelta alrededor de un nanoalambre de silicio puede controlar el paso de electrones sin el uso de uniones o dopaje. Afirman que estos pueden producirse a una escala de 10 nanómetros utilizando técnicas de fabricación existentes.
  • En 2011, investigadores de la Universidad de Pittsburgh anunciaron el desarrollo de un transistor de un solo electrón, de 1,5 nanómetros de diámetro, fabricado con materiales a base de óxido. Tres "cables" convergen en una "isla" central que puede albergar uno o dos electrones. Los electrones hacen un túnel de un cable a otro a través de la isla. Las condiciones en el tercer cable dan como resultado propiedades conductoras distintas, incluida la capacidad del transistor para actuar como una memoria de estado sólido. Los transistores de nanocables podrían impulsar la creación de computadoras microscópicas.
  • En 2012, un equipo de investigación de la Universidad de Nueva Gales del Sur anunció el desarrollo del primer transistor en funcionamiento que consiste en un solo átomo colocado con precisión en un cristal de silicio (no solo tomado de una gran muestra de transistores aleatorios). La ley de Moore predijo que se alcanzaría este hito para los circuitos integrados en el laboratorio para 2020.
  • En 2015, IBM demostró chips de nodo de 7 nm con transistores de silicio-germanio producidos utilizando EUVL . La compañía cree que esta densidad de transistores sería cuatro veces mayor que la de los chips actuales de 14 nm .
  • Samsung y TSMC planean fabricar  nodos GAAFET de 3 nm para 2021–2022. Tenga en cuenta que los nombres de los nodos, como 3  nm, no tienen relación con el tamaño físico de los elementos del dispositivo (transistores).
  • Un equipo de investigación de Toshiba que incluía a T. Imoto, M. Matsui y C. Takubo desarrolló un proceso de unión de obleas "Módulo de bloque de sistema" para fabricar paquetes de circuitos integrados tridimensionales (3D IC) en 2001. En abril de 2007, Toshiba introdujo un layer 3D IC, el chip de memoria flash NAND integrado THGAM de 16 GB que se fabricó con ocho chips flash NAND de 2 GB apilados . En septiembre de 2007, Hynix presentó IC 3D de 24 capas, un chip de memoria flash de 16 GB que se fabricó con 24 chips flash NAND apilados mediante un proceso de unión de obleas.    
  • V-NAND , también conocido como 3D NAND, permite que las celdas de memoria flash se apilen verticalmente utilizando la tecnología flash de trampa de carga presentada originalmente por John Szedon en 1967, aumentando significativamente la cantidad de transistores en un chip de memoria flash. Toshiba anunció por primera vez 3D NAND en 2007. V-NAND fue fabricado comercialmente por primera vez por Samsung Electronics en 2013.
  • En 2008, los investigadores de HP Labs anunciaron un memristor en funcionamiento , un cuarto elemento de circuito pasivo básico cuya existencia solo se había teorizado anteriormente. Las propiedades únicas del memristor permiten la creación de dispositivos electrónicos más pequeños y de mejor rendimiento.
  • En 2014, bioingenieros de la Universidad de Stanford desarrollaron un circuito inspirado en el cerebro humano. Dieciséis chips "Neurocore" simulan un millón de neuronas y miles de millones de conexiones sinápticas, que se dice que son 9.000 veces más rápidas y más eficientes energéticamente que una PC normal.
  • En 2015, Intel y Micron anunciaron 3D XPoint , una memoria no volátil que afirma ser significativamente más rápida con una densidad similar en comparación con NAND. La producción programada para comenzar en 2016 se retrasó hasta la segunda mitad de 2017.
  • En 2017, Samsung combinó su tecnología V-NAND con el apilamiento eUFS 3D IC para producir un  chip de memoria flash de 512 GB, con ocho matrices V-NAND de 64 capas apiladas. En 2019, Samsung produjo un chip flash de 1 TB con ocho matrices V-NAND de 96 capas apiladas, junto con tecnología de celda de cuatro niveles (QLC) ( 4 bits por transistor), equivalente a 2 billones de transistores, el recuento de transistores más alto de cualquier chip IC.  
  • En 2020, Samsung Electronics planea producir el nodo de 5 nm , utilizando tecnología FinFET y EUV .
  • En mayo de 2021, IBM anuncia la creación del primer chip de computadora de 2 nm , con partes supuestamente más pequeñas que el ADN humano.

Los arquitectos de microprocesadores informan que el avance de los semiconductores se ha ralentizado en toda la industria desde alrededor de 2010, por debajo del ritmo previsto por la ley de Moore. Brian Krzanich, ex director ejecutivo de Intel, anunció: "Nuestra cadencia hoy está más cerca de dos años y medio que de dos". Intel declaró en 2015 que las mejoras en los dispositivos MOSFET se han ralentizado, comenzando en el ancho de función de 22 nm alrededor de 2012 y continuando en 14 nm .

Los límites físicos para el escalado de transistores se han alcanzado debido a las fugas de la fuente al drenaje, los metales de compuerta limitados y las opciones limitadas para el material del canal. Se están investigando otros enfoques que no se basan en el escalado físico. Estos incluyen el estado de espín de la espintrónica electrónica , las uniones en túnel y el confinamiento avanzado de los materiales del canal a través de la geometría de nanoalambres. Las opciones de memoria y lógica basadas en espines se están desarrollando activamente en los laboratorios.

Investigación de materiales alternativos

La gran mayoría de los transistores actuales en circuitos integrados están compuestos principalmente de silicio dopado y sus aleaciones. A medida que el silicio se fabrica en transistores de un solo nanómetro, los efectos de canal corto cambian adversamente las propiedades materiales deseadas del silicio como transistor funcional. A continuación se muestran varios sustitutos que no son de silicio en la fabricación de pequeños transistores nanométricos.

Un material propuesto es el arseniuro de indio y galio , o InGaAs. En comparación con sus homólogos de silicio y germanio, los transistores InGaAs son más prometedores para futuras aplicaciones lógicas de alta velocidad y baja potencia. Debido a las características intrínsecas de los semiconductores compuestos III-V , los transistores de efecto túnel y de pozo cuántico basados ​​en InGaAs se han propuesto como alternativas a los diseños MOSFET más tradicionales.

  • A principios de la década de 2000, Gurtej Singh Sandhu de Micron Technology inventó los procesos de deposición de capa atómica de película de alto κ y de doble patrón de tono , extendiendo la ley de Moore para la tecnología CMOS plana a una clase de 30 nm y menos.
  • En 2009, Intel anunció el desarrollo de transistores de pozo cuántico InGaAs de 80 nanómetros . Los dispositivos de pozo cuántico contienen un material intercalado entre dos capas de material con una banda prohibida más amplia. A pesar de ser el doble del tamaño de los transistores de silicio puro líderes en ese momento, la compañía informó que funcionaban igual de bien y consumían menos energía.
  • En 2011, los investigadores de Intel demostraron transistores InGaAs de tres puertas 3-D con características de fuga mejoradas en comparación con los diseños planos tradicionales. La compañía afirma que su diseño logró la mejor electrostática de cualquier transistor semiconductor compuesto III-V. En la Conferencia Internacional de Circuitos de Estado Sólido de 2015 , Intel mencionó el uso de compuestos III-V basados ​​en dicha arquitectura para su nodo de 7 nanómetros.
  • En 2011, investigadores de la Universidad de Texas en Austin desarrollaron transistores de efecto de campo de túnel InGaAs capaces de corrientes de funcionamiento más altas que los diseños anteriores. Los primeros diseños de TFET III-V fueron demostrados en 2009 por un equipo conjunto de la Universidad de Cornell y la Universidad Estatal de Pensilvania .
  • En 2012, un equipo de Microsystems Technology Laboratories del MIT desarrolló un transistor de 22 nm basado en InGaAs que, en ese momento, era el transistor sin silicio más pequeño jamás construido. El equipo utilizó técnicas que se utilizan actualmente en la fabricación de dispositivos de silicio y tiene como objetivo un mejor rendimiento eléctrico y una reducción a una escala de 10 nanómetros .

La investigación en computación biológica muestra que el material biológico tiene una densidad de información y una eficiencia energética superiores en comparación con la computación basada en silicio.

referirse a la leyenda
Imagen de microscopía de sonda de barrido de grafeno en su estructura de celosía hexagonal

Se están estudiando varias formas de grafeno para la electrónica del grafeno , por ejemplo, los transistores de nanocintas de grafeno han demostrado ser muy prometedores desde su aparición en publicaciones en 2008 (el grafeno a granel tiene una banda prohibida de cero y, por lo tanto, no se puede usar en transistores debido a su conductividad constante, una Incapacidad para apagar. Los bordes en zigzag de las nanocintas introducen estados de energía localizados en las bandas de conducción y valencia y, por lo tanto, una banda prohibida que permite la conmutación cuando se fabrica como un transistor. Como ejemplo, un GNR típico de ancho de 10 nm tiene una banda prohibida deseable energía de 0,4 eV.) Sin embargo, será necesario realizar más investigaciones en capas de grafeno por debajo de 50 nm, ya que su valor de resistividad aumenta y, por lo tanto, la movilidad de los electrones disminuye.

Pronósticos y hojas de ruta

En abril de 2005, Gordon Moore declaró en una entrevista que la proyección no se puede sostener indefinidamente: "No puede continuar para siempre. La naturaleza de las exponenciales es que las expulsas y eventualmente ocurre un desastre". También señaló que los transistores eventualmente alcanzarían los límites de la miniaturización a niveles atómicos :

En términos de tamaño [de los transistores], puede ver que nos estamos acercando al tamaño de los átomos, que es una barrera fundamental, pero pasarán dos o tres generaciones antes de que lleguemos tan lejos, pero eso es todo lo que hemos dicho. alguna vez he podido ver. Tenemos otros 10 a 20 años antes de que alcancemos un límite fundamental. Para entonces podrán fabricar chips más grandes y tener presupuestos de transistores de miles de millones.

En 2016, la Hoja de ruta tecnológica internacional para semiconductores , después de utilizar la Ley de Moore para impulsar la industria desde 1998, produjo su hoja de ruta final. Ya no centró su plan de investigación y desarrollo en la ley de Moore. En cambio, describió lo que podría llamarse la estrategia Más que Moore en la que las necesidades de las aplicaciones impulsan el desarrollo de chips, en lugar de centrarse en el escalado de semiconductores. Los controladores de aplicaciones van desde teléfonos inteligentes hasta inteligencia artificial y centros de datos.

IEEE inició una iniciativa de elaboración de mapas de carreteras en 2016, "Reinicio de la informática", denominada Hoja de ruta internacional para dispositivos y sistemas (IRDS).

La mayoría de los pronosticadores, incluido Gordon Moore, esperan que la ley de Moore termine alrededor de 2025. Aunque la ley de Moore alcanzará una limitación física, muchos pronosticadores son optimistas sobre la continuación del progreso tecnológico en una variedad de otras áreas, incluidas las nuevas arquitecturas de chips, la computación cuántica, e IA y aprendizaje automático.

Consecuencias

La electrónica digital ha contribuido al crecimiento económico mundial a finales del siglo XX y principios del XXI. La principal fuerza impulsora del crecimiento económico es el crecimiento de la productividad , y la ley de Moore influye en la productividad. Moore (1995) esperaba que "la tasa de progreso tecnológico se vaya a controlar a partir de las realidades financieras". Sin embargo, lo contrario podría ocurrir y sucedió a fines de la década de 1990, cuando los economistas informaron que "el crecimiento de la productividad es el indicador económico clave de la innovación". La ley de Moore describe una fuerza impulsora del cambio tecnológico y social, la productividad y el crecimiento económico.

Una aceleración en la tasa de progreso de los semiconductores contribuyó a un aumento repentino en el crecimiento de la productividad de EE. UU., Que alcanzó el 3,4% anual en 1997-2004, superando el 1,6% anual durante 1972-1996 y 2005-2013. Como señala el economista Richard G. Anderson, "Numerosos estudios han rastreado la causa de la aceleración de la productividad hasta las innovaciones tecnológicas en la producción de semiconductores que redujeron drásticamente los precios de dichos componentes y de los productos que los contienen (además de expandir las capacidades de tales productos) ".

La principal implicación negativa de la ley de Moore es que la obsolescencia empuja a la sociedad contra los límites del crecimiento . A medida que las tecnologías continúan "mejorando" rápidamente, vuelven obsoletas las tecnologías predecesoras. En situaciones en las que la seguridad y la supervivencia del hardware o los datos son primordiales, o en las que los recursos son limitados, la rápida obsolescencia a menudo plantea obstáculos para las operaciones sin problemas o continuas.

Debido a la huella de recursos intensiva y los materiales tóxicos utilizados en la producción de computadoras, la obsolescencia conduce a graves impactos ambientales dañinos . Los estadounidenses desechan 400.000 teléfonos móviles todos los días, pero este alto nivel de obsolescencia les parece a las empresas una oportunidad para generar ventas regulares de equipos nuevos y costosos, en lugar de retener un dispositivo durante un período de tiempo más largo, lo que lleva a la industria a utilizar la obsolescencia planificada como centro de ganancias .

Gráfico log-log que compara la longitud de la puerta con el tamaño del nodo
Tendencia de la longitud de la puerta del transistor de Intel : la escala del transistor se ha ralentizado significativamente en los nodos avanzados (más pequeños)

Una fuente alternativa de rendimiento mejorado son las técnicas de microarquitectura que aprovechan el crecimiento del número de transistores disponibles. La ejecución desordenada y el almacenamiento en caché en chip y la captación previa reducen el cuello de botella de latencia de la memoria a expensas de utilizar más transistores y aumentar la complejidad del procesador. Estos aumentos se describen empíricamente mediante la regla de Pollack , que establece que los aumentos de rendimiento debido a las técnicas de microarquitectura se aproximan a la raíz cuadrada de la complejidad (número de transistores o área) de un procesador.

Durante años, los fabricantes de procesadores ofrecieron aumentos en las velocidades de reloj y el paralelismo a nivel de instrucción , de modo que el código de un solo subproceso se ejecuta más rápido en los procesadores más nuevos sin modificaciones. Ahora, para administrar la disipación de energía de la CPU , los fabricantes de procesadores prefieren los diseños de chips de múltiples núcleos , y el software debe escribirse de manera multiproceso para aprovechar al máximo el hardware. Muchos paradigmas de desarrollo de subprocesos múltiples introducen gastos generales y no verán un aumento lineal en la velocidad frente al número de procesadores. Esto es particularmente cierto al acceder a recursos compartidos o dependientes, debido a la contención de bloqueos . Este efecto se hace más notorio a medida que aumenta el número de procesadores. Hay casos en los que un aumento de aproximadamente un 45% en los transistores del procesador se ha traducido en un aumento de aproximadamente un 10-20% en la potencia de procesamiento.

Por otro lado, los fabricantes están agregando unidades de procesamiento especializadas para manejar características como gráficos, video y criptografía. Por ejemplo, la extensión de JavaScript paralela de Intel no solo agrega soporte para múltiples núcleos, sino también para las otras características de procesamiento no general de sus chips, como parte de la migración en la secuencia de comandos del lado del cliente hacia HTML5 .

La ley de Moore ha afectado significativamente el desempeño de otras tecnologías: Michael S. Malone escribió sobre la Guerra de Moore después del aparente éxito de la conmoción y el asombro en los primeros días de la Guerra de Irak . El progreso en el desarrollo de armas guiadas depende de la tecnología electrónica. Las mejoras en la densidad del circuito y el funcionamiento de baja potencia asociadas con la ley de Moore también han contribuido al desarrollo de tecnologías que incluyen teléfonos móviles e impresión 3D .

Otras formulaciones y observaciones similares

Varias medidas de tecnología digital están mejorando a tasas exponenciales relacionadas con la ley de Moore, incluido el tamaño, el costo, la densidad y la velocidad de los componentes. Moore escribió solo sobre la densidad de componentes, "un componente que es un transistor, resistor, diodo o capacitor", a un costo mínimo.

Transistores por circuito integrado : la formulación más popular es la de duplicar el número de transistores en los circuitos integrados cada dos años. A fines de la década de 1970, la ley de Moore se conoció como el límite para el número de transistores en los chips más complejos. El gráfico en la parte superior muestra que esta tendencia es cierta hoy. A partir de 2017, el procesador disponible comercialmente que posee la mayor cantidad de transistores es el Centriq de 48 núcleos con más de 18 mil millones de transistores.

Densidad al costo mínimo por transistor : esta es la formulación dada en el artículo de Moore de 1965. No se trata solo de la densidad de transistores que se puede lograr, sino de la densidad de transistores a la que el costo por transistor es el más bajo. A medida que se colocan más transistores en un chip, el costo de fabricación de cada transistor disminuye, pero aumenta la posibilidad de que el chip no funcione debido a un defecto. En 1965, Moore examinó la densidad de transistores a la que se minimiza el costo, y observó que, a medida que los transistores se hicieron más pequeños gracias a los avances en fotolitografía , este número aumentaría a "una tasa de aproximadamente un factor de dos por año".

Escala de Dennard : esto postula que el uso de energía disminuiría en proporción al área (tanto el voltaje como la corriente son proporcionales a la longitud) de los transistores. Combinado con la ley de Moore, el rendimiento por vatio aumentaría aproximadamente al mismo ritmo que la densidad de transistores, duplicándose cada uno o dos años. Según Dennard, las dimensiones de los transistores de escalado se escalarían en un 30% (0,7x) en cada generación de tecnología, reduciendo así su área en un 50%. Esto reduciría el retraso en un 30% (0,7x) y, por lo tanto, aumentaría la frecuencia de funcionamiento en aproximadamente un 40% (1,4x). Finalmente, para mantener constante el campo eléctrico, el voltaje se reduciría en un 30%, reduciendo la energía en un 65% y la potencia (a una frecuencia de 1.4x) en un 50%. Por lo tanto, en cada generación de tecnología, la densidad de transistores se duplicaría, el circuito se volvería un 40% más rápido, mientras que el consumo de energía (con el doble de transistores) se mantendría igual. La escala de Dennard terminó en 2005-2010 debido a las corrientes de fuga.

El crecimiento exponencial del transistor del procesador predicho por Moore no siempre se traduce en un rendimiento práctico exponencialmente mayor de la CPU. Desde aproximadamente 2005–2007, la escala de Dennard ha terminado, por lo que, aunque la ley de Moore continuó durante varios años después de eso, no ha producido dividendos en un mejor desempeño. La razón principal citada para la avería es que en tamaños pequeños, la fuga de corriente plantea mayores desafíos y también hace que el chip se caliente, lo que crea una amenaza de fuga térmica y, por lo tanto, aumenta aún más los costos de energía.

El desglose de la escala de Dennard provocó un mayor enfoque en los procesadores multinúcleo, pero las ganancias ofrecidas al cambiar a más núcleos son menores que las ganancias que se lograrían si continuara la escala de Dennard. En otra desviación de la escala de Dennard, los microprocesadores Intel adoptaron un FinFET de triple puerta no plano a 22 nm en 2012 que es más rápido y consume menos energía que un transistor plano convencional. La tasa de mejora del rendimiento de los microprocesadores de un solo núcleo se ha reducido significativamente. El rendimiento de un solo núcleo mejoró un 52% anual en 1986-2003 y un 23% anual en 2003-2011, pero se redujo a solo un siete por ciento anual en 2011-2018.

Precio ajustado por calidad de los equipos de TI : el precio de la tecnología de la información (TI), las computadoras y los equipos periféricos, ajustado por calidad e inflación, disminuyó un 16% anual en promedio durante las cinco décadas desde 1959 hasta 2009. Sin embargo, el ritmo se aceleró a 23% anual en 1995-1999 provocado por una innovación de TI más rápida y, más tarde, se redujo a 2% anual en 2010-2013.

Si bien continúa la mejora del precio del microprocesador ajustado por calidad , la tasa de mejora también varía y no es lineal en una escala logarítmica. La mejora de los precios de los microprocesadores se aceleró a finales de la década de 1990, alcanzando el 60% anual (reduciéndose a la mitad cada nueve meses) frente a la tasa típica de mejora del 30% (reduciéndose a la mitad cada dos años) durante los años anteriores y posteriores. Los microprocesadores de portátiles en particular mejoraron entre un 25% y un 35% por año en 2004-2010 y se desaceleraron a un 15-25% por año en 2010-2013.

El número de transistores por chip no puede explicar completamente los precios de los microprocesadores ajustados por calidad. El artículo de Moore de 1995 no limita la ley de Moore a la linealidad estricta o al recuento de transistores: "La definición de 'Ley de Moore' ha llegado a referirse a casi todo lo relacionado con la industria de los semiconductores que en una gráfica semilogarítmica se aproxima a una línea recta. revisar sus orígenes y, al hacerlo, restringir su definición ".

Densidad de área de la unidad de disco duro: en 2005 se hizo una predicción similar (a veces llamada ley de Kryder ) para la densidad de área de la unidad de disco duro . Más tarde, la predicción se consideró demasiado optimista. Varias décadas de rápido progreso en la densidad de área se desaceleró alrededor de 2010, de 30 a 100% por año a 10 a 15% por año, debido al ruido relacionado con el tamaño de grano más pequeño del disco, la estabilidad térmica y la capacidad de escritura utilizando los campos magnéticos disponibles.

Capacidad de fibra óptica : la cantidad de bits por segundo que se pueden enviar por una fibra óptica aumenta exponencialmente, más rápido que la ley de Moore. Ley de Keck , en honor a Donald Keck .

Capacidad de la red : según Gerry / Gerald Butters, ex director del Grupo de redes ópticas de Lucent en Bell Labs, existe otra versión, llamada Ley de la fotónica de Butters, una formulación que deliberadamente se asemeja a la ley de Moore. La ley de Butters dice que la cantidad de datos que salen de una fibra óptica se duplica cada nueve meses. Por tanto, el coste de transmitir un bit a través de una red óptica se reduce a la mitad cada nueve meses. La disponibilidad de multiplexación por división de longitud de onda (a veces llamada WDM) aumentó la capacidad que podría colocarse en una sola fibra hasta en un factor de 100. Las redes ópticas y la multiplexación por división de longitud de onda densa (DWDM) están reduciendo rápidamente el costo de la creación de redes, y parece estar asegurado un mayor progreso. Como resultado, el precio mayorista del tráfico de datos colapsó en la burbuja de las punto com . La ley de Nielsen dice que el ancho de banda disponible para los usuarios aumenta en un 50% anual.

Píxeles por dólar : de manera similar, Barry Hendy de Kodak Australia ha trazado píxeles por dólar como una medida básica de valor para una cámara digital, lo que demuestra la linealidad histórica (en una escala logarítmica) de este mercado y la oportunidad de predecir la tendencia futura de la tecnología digital. precio de la cámara, pantallas LCD y LED, y resolución.

El gran compensador de la ley de Moore (TGMLC) , también conocido como ley de Wirth, generalmente se conoce como software inflado y es el principio de que las generaciones sucesivas de software de computadora aumentan en tamaño y complejidad, compensando así las ganancias de rendimiento predichas por la ley de Moore. En un artículo de 2008 en InfoWorld , Randall C. Kennedy, ex de Intel, introduce este término utilizando versiones sucesivas de Microsoft Office entre el año 2000 y 2007 como premisa. A pesar de las ganancias en el rendimiento computacional durante este período de tiempo de acuerdo con la ley de Moore, Office 2007 realizó la misma tarea a la mitad de la velocidad en una computadora prototípica del año 2007 en comparación con Office 2000 en una computadora del año 2000.

Ampliación de la biblioteca : Fremont Rider calculó en 1945 que duplicaría su capacidad cada 16 años, si se disponía de espacio suficiente. Abogó por reemplazar los trabajos impresos voluminosos y en descomposición con fotografías analógicas en microformas miniaturizadas , que podrían duplicarse a pedido para los usuarios de la biblioteca u otras instituciones. No previó la tecnología digital que seguiría décadas más tarde para reemplazar las microformas analógicas con medios de transmisión, almacenamiento y procesamiento de imágenes digitales. Las tecnologías digitales automatizadas y potencialmente sin pérdidas permitieron grandes aumentos en la rapidez del crecimiento de la información en una era que ahora a veces se llama la Era de la Información .

Curva de Carlson : es un término acuñado por The Economist para describir el equivalente biotecnológico de la ley de Moore, y lleva el nombre del autor Rob Carlson. Carlson predijo con precisión que el tiempo de duplicación de las tecnologías de secuenciación de ADN (medido por el costo y el rendimiento) sería al menos tan rápido como la ley de Moore. Las curvas de Carlson ilustran las reducciones rápidas (en algunos casos hiperexponenciales) en el costo y los aumentos en el rendimiento de una variedad de tecnologías, incluida la secuenciación de ADN, la síntesis de ADN y una variedad de herramientas físicas y computacionales utilizadas en la expresión de proteínas y en la determinación de estructuras de proteínas. .

Ley de Eroom : es una observación del desarrollo de fármacos farmacéuticos que se escribió deliberadamente como la Ley de Moore al revés para contrastarla con los avances exponenciales de otras formas de tecnología (como los transistores) a lo largo del tiempo. Afirma que el costo de desarrollar un nuevo medicamento aproximadamente se duplica cada nueve años.

Los efectos de la curva de experiencia dicen que cada duplicación de la producción acumulada de prácticamente cualquier producto o servicio va acompañada de una reducción porcentual constante aproximada en el costo unitario. La primera descripción cualitativa documentada reconocida de esto data de 1885. Se utilizó una curva de potencia para describir este fenómeno en una discusión de 1936 sobre el costo de los aviones.

Ley de Edholm : Phil Edholm observó que el ancho de banda de las redes de telecomunicaciones (incluida Internet ) se duplica cada 18 meses. El ancho de banda de las redes de comunicación en líneaha aumentado de bits por segundo a terabits por segundo . El rápido aumento en el ancho de banda en línea se debe en gran parte al mismo escalado de MOSFET que habilita la ley de Moore, ya que las redes de telecomunicaciones se construyen a partir de MOSFET.

La ley de Haitz predice que el brillo de los LED aumenta a medida que disminuye su costo de fabricación.

La ley de Swanson es la observación de que el precio de los módulos solares fotovoltaicos tiende a caer un 20 por ciento por cada duplicación del volumen acumulado enviado. A las tasas actuales, los costos bajan un 75% aproximadamente cada 10 años.

Ver también

Notas

Referencias

Otras lecturas

  • Brock, David C. (ed.) (2006). Comprensión de la ley de Moore: cuatro décadas de innovación . Filadelfia: Chemical Heritage Foundation. ISBN  0-941901-41-6 . OCLC  66463488 .
  • Mody, Cyrus (2016). El brazo largo de la ley de Moore: microelectrónica y ciencia estadounidense . Cambridge, Mass .: The MIT Press. ISBN 978-0262035491.
  • Thackray, Arnold; David C. Brock y Rachel Jones (2015). Ley de Moore: La vida de Gordon Moore, el revolucionario silencioso de Silicon Valley . Nueva York: Basic Books.
  • Tuomi, Ilkka (2002). La vida y la muerte de la Ley de Moore . Primer lunes, 7 (11), noviembre de 2002. https://doi.org/10.5210/fm.v7i11.1000

enlaces externos