Menú
Está libre
registro
hogar  /  Firmware/ Procesadores Gigaflops. Una supercomputadora con rendimiento de petaflops está a la vuelta de la esquina

Procesadores Gigaflops. Una supercomputadora con rendimiento de petaflops está a la vuelta de la esquina

Los estudios muestran que, en promedio, la potencia de las computadoras de escritorio está por detrás del rendimiento de las supercomputadoras en 13 años. En otras palabras, las PC profesionales de hoy en día son casi tan poderosas como las supercomputadoras de 13 años en términos de rendimiento. Esta es la razón por la que la investigación de mercado de HPC es: Buen camino evaluar la dirección del desarrollo de las computadoras masivas del futuro. No hace mucho, las supercomputadoras superaron la barra de rendimiento de un teraflops (billón de operaciones de punto flotante por segundo), y no están lejos de alcanzar el nivel de rendimiento de los petaflops (cuatrillones de flops, o 1015 operaciones de punto flotante por segundo). mientras que los tera-cálculos permanecerán con el usuario promedio de PC ...

El profesor y escritor estadounidense Steve Chen trató de imaginar qué nivel de desempeño sería suficiente para resolver varios problemas en el futuro. En su opinión, para problemas aerodinámicos, un rendimiento de varios petaflops es suficiente, para problemas de dinámica molecular se necesitarán 20 petaflops, para cosmología computacional: rendimiento fantástico al nivel de 10 exaflops (un exaflops es igual a un quintillón, o 1018 flops ), y para problemas de química computacional, procesadores más potentes. Steve Pavlovsky, ingeniero de investigación sénior de Intel y director de tecnología y director general de arquitectura y planificación del Digital Enterprise Group de Intel, cree que las computadoras con un rendimiento de sextillones, o 1.021 operaciones de punto flotante por segundo, estarán disponibles para 2029.

Steve Pavlovsky cree que los desafíos y logros de las supercomputadoras de hoy serán los desafíos y logros de las PC de escritorio del mañana. El mercado de HPC está creciendo: su volumen ya ha alcanzado los $ 10 mil millones y, en algunos sectores, el crecimiento anual de las ventas supera el 30%; La cantidad de computadoras profesionales de alto rendimiento basadas en procesadores Intel que se venden en todo el mundo también está creciendo.

Hace solo 60 años, la computadora de tubo ENIAC, considerada el pináculo tecnológico de la computación de alto rendimiento, tenía solo 20 celdas. memoria de acceso aleatorio... A mediados de los 60 apareció el superordenador CDC 6600, con un rendimiento que alcanzaba los 9 megaflops. Y solo en 1997, la supercomputadora ASCII Red, que contiene 9298 procesadores Intel Pentium Pro, ha alcanzado un nivel de rendimiento igual a teraflops. Hoy, un sistema basado en 464 procesadores de cuatro núcleos Intel Xeon la serie 5300, en un espacio mucho más pequeño, tiene seis veces el rendimiento máximo.

¿Cuándo se logrará el rendimiento del nivel de petaflops (es decir, miles de teraflops) o, como dice en sentido figurado Steve Pavlovsky, se superará la "barrera del sonido" del rendimiento de la mascota? ¿Y cuándo se convertirá la informática peta en algo básico para los sistemas informáticos ordinarios?

Se estima que las primeras supercomputadoras peta aparecerán en 2008-2009; para determinar esta línea de tiempo, es suficiente tomar los parámetros de rendimiento de las computadoras más rápidas del mundo publicados en www.top500.org y extrapolarlos de acuerdo con las tendencias de crecimiento observadas. . Sin embargo, para crear computadoras peta para el mercado masivo, hay muchos problemas serios que resolver. Con este fin, Intel, junto con sus socios, está realizando investigaciones en las siguientes áreas:

  • rendimiento;
  • rendimiento memoria;
  • interconexiones;
  • gestión de energía;
  • fiabilidad.

Según Steve Pavlovski, para alcanzar el nivel de cálculo de mascotas utilizando tecnologías modernas Aumentar el rendimiento de los microcircuitos semiconductores requerirá la creación de un procesador con 100 mil núcleos computacionales. Para la implementación práctica de tales sistemas, será necesario aumentar significativamente la densidad de la disposición de los núcleos en el cristal. Hoy en día, existe un feroz debate sobre la arquitectura de las computadoras del futuro, ¿cuál es mejor: muchos núcleos pequeños optimizados para acelerar la computación paralela o varios núcleos más grandes diseñados para acelerar la computación secuencial? Inclinándose hacia el primer camino de desarrollo, los investigadores entienden que se están fijando la laboriosa tarea de trasladar la industria del software a los rieles de la programación paralela ...

Otra área de investigación de Intel es la organización de interconexiones de núcleos computacionales. Las conexiones de bus ocupan menos espacio, tienen un gran ancho de banda y escalan bien, pero son ineficientes desde el punto de vista energético. La segunda opción es hacer sonar los núcleos para la señalización, cuya desventaja es el bajo nivel de escalabilidad a medida que aumenta el número de núcleos. La tercera opción es una arquitectura matricial, cuando cada núcleo se comunica con cada uno a través de una cadena de núcleos vecinos.

Vale la pena recordar que en el Intel Developer Forum (IDF) de otoño en San Francisco, se presentó un prototipo de un procesador de 80 núcleos que podría proporcionar un rendimiento de teraflops para computadores de escritorio... Según el director de tecnología de Intel, Justin Rattner, la fecha de lanzamiento estimada para un procesador de este tipo en el mercado es 2010 o incluso antes. El prototipo del procesador se basa en la arquitectura x86 y desarrollos de Intel como la computación de alto rendimiento en un chip (HPC-on-chip), una nueva estructura de conexiones de elementos de memoria, nuevas tecnologías de ahorro de energía, etc.

En 2006, Intel Corporation anunció programa global Research, denominada Tera-Scale Computing, y agrupa más de 80 proyectos de investigación diferentes en todo el mundo, distribuidos en tres áreas principales: mejora de tecnologías para el diseño y fabricación de cristales de silicio, optimización de plataformas y nuevos enfoques de programación. En su discurso en las FDI, Justin Rattner señaló que los pasos necesarios hacia la era tera se tomarán durante la próxima década. Por ejemplo, la investigación moderna tiene como objetivo optimizar el funcionamiento de la memoria caché, su configurabilidad en función de las tareas que se resuelven y desarrollar el paralelismo en el acceso a múltiples núcleos a la memoria compartida. Intel también planea integrar un transceptor inalámbrico de autoajuste digital de banda ancha en sus matrices, y las aplicaciones basadas en fotónica de silicio integrada están a la vuelta de la esquina.

"Las altas tasas de transferencia de datos entre los núcleos de cómputo y la memoria son un tema importante", enfatiza Pavlovsky. - La memoria debe tener un ancho de banda extremadamente alto. Al mismo tiempo, si aumentamos la frecuencia de reloj del canal de memoria, pronto enfrentaremos las limitaciones físicas que imponen los conductores de cobre ". Una de las posibles formas de superar estas limitaciones es aumentar la cantidad de canales de memoria, pero esto aumenta el tamaño del procesador y su costo. “Tendremos que buscar tecnologías de transmisión de datos más exóticas”, dice Pavlovsky. "Estimamos que los procesadores peta requerirán alrededor de 500 GB / s de memoria para funcionar".

El siguiente aspecto más importante del funcionamiento de las computadoras para mascotas es la velocidad del sistema de E / S. Los científicos de Intel ahora están trabajando para ofrecer velocidades de transferencia de datos de hasta cientos de gigabytes por segundo (GB / s).

Sin embargo, los mayores desafíos en los dispositivos peta son el suministro de energía y la confiabilidad. El consumo de energía de un gran centro de procesamiento de datos (DPC) moderno tiene un promedio de 9-10 MW. La potencia consumida por una computadora con 100 mil núcleos puede ser de unos 20 MW. A esto hay que sumarle la potencia necesaria para enfriar las computadoras para mascotas. Al costo actual de la electricidad, el costo de suministrar el sistema peta solo excedería los $ 14.6 millones por año. Por eso la pregunta uso efectivo La electricidad es extremadamente importante, lo que dicta el uso de tecnologías de ahorro de energía en todos los niveles, desde transistores hasta centros de datos:

  • a nivel de transistores: tecnologías de silicio tensado, tecnologías para reducir las corrientes de fuga, etc.
  • a nivel de procesador: equilibrio de carga basado en subprocesos múltiples;
  • a nivel del sistema: control de consumo de energía de alta precisión en función de la carga del sistema;
  • a nivel de centro de datos: el uso de sistemas avanzados de refrigeración por líquido y aire, así como la integración vertical de soluciones de disipación de calor.

Además, los investigadores predicen la aparición de problemas completamente inesperados asociados con ... los rayos cósmicos. Después de todo, los procesadores peta con elementos de computación altamente integrados usarán transistores tan pequeños que serán influenciados por partículas energéticas que forman los rayos cósmicos y pueden causar fallas de datos aleatorios cuando ingresan al transistor. A medida que aumenta la densidad de transistores en un chip, el número de tales fallas aleatorias aumentará rápidamente. "Si el número de núcleos en un chip llega a 100.000, tales fallas se volverán inmanejables", dice Pavlovsky. - Tendrán una influencia cada vez mayor en el funcionamiento del sistema y será necesario combatirlos. Ya hemos comenzado a investigar en esta dirección ". Tecnologías avanzadas Las garantías de confiabilidad incluyen el uso de códigos de corrección de errores y paridad, y el uso de núcleos redundantes para validar los resultados computacionales de los núcleos del sistema principal.

La tecnología informática se está desarrollando a pasos agigantados. Por tanto, es probable que en el momento en que se publicó este artículo la luz viera la luz de un nuevo "monstruo de la informática". Nos gustaría presentarles a los diez líderes principales de noviembre de 2012.

1.Titan (EE. UU.) - 17,59 petaflops

El primer lugar lo ocupó la supercomputadora estadounidense Titan, creada con la participación de Cray y Nvidia. Está ubicado en el Laboratorio Nacional Oak Ridge en Tennessee, que es propiedad del Departamento de Energía de EE. UU. El Titán puede realizar 17,59 billones de operaciones de punto flotante por segundo, lo que equivale a 17,59 petaflops.

Titán consta de 18688 nudos. Está construido sobre una arquitectura híbrida: cada nodo de supercomputadora incluye un procesador AMD Opteron de 16 núcleos y un acelerador de gráficos Nvidia Tesla K20X. El uso de GPU puede reducir el consumo de energía del sistema.

Titan se está utilizando para diseñar motores energéticamente eficientes para vehículos, para simular los efectos del cambio climático y para estudiar biocombustibles. Oak Ridge alquila la supercomputadora a otras organizaciones de investigación.

2. Sequoia (Estados Unidos): 16,32 petaflops

La supercomputadora Sequoia, también propiedad del Departamento de Energía de Estados Unidos, funciona con 1.572.864 núcleos. Sequoia está siendo desarrollado por IBM para la Administración Nacional de Seguridad Nuclear como parte de su programa avanzado de computación y simulación.

Sequoia se utilizará principalmente para simular explosiones nucleares, reemplazando las supercomputadoras ASC Purple y Blue Gene / L en el Laboratorio Nacional de Livermore. Sequoia también podrá resolver problemas de astronomía, energía, estudio del genoma humano y cambio climático.

Sequoia se basa en la arquitectura Blue Gene / Q, la última generación de la línea Blue Gene de arquitecturas de supercomputación. La supercomputadora consta de 98.304 nodos de computación y tiene 1.6 PB de memoria en 96 racks, ubicados en un área de 300 metros cuadrados. m) Unidades centrales de procesamiento de 16 u 8 núcleos Power Architecture, fabricadas de acuerdo con la tecnología de proceso de 45 nm.

IBM ha creado una computadora que puede resolver 20 billones de varias operaciones matemáticas en un segundo. Esto significa que si 7 mil millones de personas tomaran calculadoras y comenzaran a hacer cálculos matemáticos al mismo tiempo sin respiro, las 24 horas del día, los 365 días, entonces estas operaciones tomarían hasta 320 años, nada menos. Pero ahora no necesitas hacer eso, porque nació Sequoia. La computadora realizará dichos cálculos en solo una hora.

Computadora 3.K (Japón) - 10.51 petaflops

La computadora K es una supercomputadora japonesa fabricada por Fujitsu, lanzada en 2011 en el Instituto RIKEN de Investigación Física y Química en Kobe. El nombre proviene del prefijo japonés "kei", que significa 10 billones y al mismo tiempo designa la capital, es decir, una alusión a la "computadora principal".

En junio de 2011, el sistema tenía 68,544 procesadores SPARC64 VIIIfx de 8 núcleos alojados en 672 racks informáticos, lo que representa 548,352 núcleos informáticos fabricados por Fujitsu con tecnología de proceso de 45 nm. La supercomputadora utiliza refrigeración por agua para reducir el consumo de energía y aumentar la densidad del empaque.

4. Mira (EE. UU.) - 8.16 petaflops

Usando la supercomputadora IBM Blue Gene / Q (Mira), los científicos estadounidenses intentarán modelar el universo. Los científicos esperan obtener respuestas a las preguntas más interesantes sobre el origen del universo. Se supone que la computadora simula y calcula consistentemente los 12 mil millones de años que han pasado desde el Big Bang.

Una supercomputadora consta de 50 mil nodos computacionales, cada uno de los cuales contiene 16 núcleos. La computadora utiliza un sistema de enfriamiento líquido y almacenamiento masivo de 70 petabytes. Mira es capaz de realizar 8 billones de operaciones por segundo.

5. JuQueen (Alemania) - 5,9 petaflops

JuQueen, el superordenador más potente de Europa, ha sido lanzado oficialmente en la ciudad alemana de Julich (Renania del Norte-Westfalia). Su rendimiento es de 5,9 petaflops o 5,9 mil billones de operaciones por segundo.

Los procesadores JuQueen tienen un total de casi 459 mil núcleos. Al mismo tiempo, se desarrollaron utilizando tecnologías de ahorro de energía. El sistema se enfriará utilizando corrientes de agua circulantes con una temperatura de 18 grados. Los expertos señalan que esta máquina es unas 100 mil veces más potente que la computadora personal más moderna.

La computadora fue desarrollada por la corporación IBM. El proyecto fue financiado con fondos de la organización científica más grande de la República Federal de Alemania: el Centro Helmholtz, el presupuesto federal y el tesoro de Renania del Norte-Westfalia. No se reveló la cantidad exacta.

6.SuperMUC (Alemania) - 2.9 petaflops

SuperMUC, la segunda supercomputadora más potente de Europa, se lanzó a finales de junio de 2012. La supercomputadora se creó para resolver problemas científicos complejos en la física y la dinámica de los fluidos. La máquina se ejecuta en la plataforma SUSE Linux Enterprise Server. El SuperMUC en System X iDataPlex de IBM está equipado con más de 155.000 núcleos de procesador para un rendimiento máximo combinado de aproximadamente 3 petaflops.

Una característica especial de SuperMUC es una tecnología innovadora para enfriar el sistema con agua tibia, desarrollada por IBM, que se basa en el sistema de circulación sanguínea en el cuerpo humano. Como resultado, SuperMUC gasta un 40% menos de energía en sistemas de enfriamiento que los centros de datos "clásicos" y también le permite acumular y usar la energía ahorrada para calentar los edificios del Centro de Computación de Leibniz.

7. Stampede (EE. UU.) - 2,7 petaflops

El Centro de Computación Avanzada de Texas (TACC) de la Universidad de Texas ha creado una supercomputadora capaz de realizar 2,7 cuatrillones de operaciones de punto flotante por segundo. TACC es parte del proyecto XSEDE (Science and Engineering Advanced Discovery Environment), que tiene como objetivo proporcionar a los investigadores acceso a recursos de supercomputación.

En el corazón de Stampede se encuentra la arquitectura hiperescalar de Dell que utiliza procesadores Intel Xeon E5-2680 de 8 núcleos. Los procesadores Xeon ofrecen más de 2 petaflops de rendimiento. El trabajo en el proyecto aún está pendiente, y en 2013 Stampede también utilizará nuevos coprocesadores Intel Xeon Phi diseñados para realizar cálculos en paralelo, que serán responsables de más de 7 petaflops de rendimiento del sistema. Esto aumentará el rendimiento total del sistema hasta 10 petaflops.

Además de Xeon Phi, la supercomputadora utilizará 128 GPU de próxima generación de NVIDIA para proporcionar virtualización remota. El rendimiento del sistema puede crecer hasta 15 petaflops a medida que se instalan los procesadores Intel nuevo generaciones. Mellanox es otro proveedor de componentes para Stampede, que proporciona equipos de red Infiniband de 56 Gbps.

El sistema de refrigeración de la supercomputadora se basa en el principio de aislamiento de zonas calientes e implica el uso de módulos de refrigeración incorporados, lo que permite colocar equipos con una alta densidad de hasta 40 kW por rack. El sistema de distribución de energía suministra 415V a los racks y 240V a los servidores. Los requisitos de energía de los sistemas Stampede y Ranger son suministrados por una subestación de energía de 10MW.

8.Tianhe-1A (China) - 2,57 petaflops

Tianhe-1A es una supercomputadora diseñada Universidad Nacional tecnologías de defensa de la República Popular China. La velocidad de cálculo de la supercomputadora es de 2,57 petaflops.

El Tianhe-1A usa 7168 GPU Nvidia Tesla M2050 y 14336 procesadores de servidor Intel Xeon. Según Nvidia, la supercomputadora usa energía eléctrica tres veces más eficientemente que otras computadoras electrónicas de su clase. Una supercomputadora construida exclusivamente sobre la base de unidades centrales de procesamiento(CPU), con una velocidad de cálculo comparable, consumiría más de 12 MW de energía eléctrica. La potencia eléctrica consumida por Tianhe-1A es de 4,04 MW. Sin GPU, una supercomputadora de rendimiento comparable requeriría la instalación de más de 50.000 CPU.

La construcción de la supercomputadora costó $ 88 millones, y los costos operativos anuales son de aproximadamente $ 20 millones. El mantenimiento emplea a unos 200 especialistas. El área principal de trabajo es la investigación sobre producción de petróleo y aerodinámica. Declara “ acceso abierto»A una supercomputadora, que teóricamente permite su uso por otros países.

9.Fermi (Italia) - 1.7 petaflops

Fermi está en noveno lugar. Sistemaal corrienteen los servidores del consorcio sin fines de lucro Cineca, que incluye 54 universidades y organizaciones de investigación italianas.Fermi consta de 10.240 procesadores PowerA2 a 1,6 GHz, cada uno con 16 núcleos. En total, la computadora tiene 163,840 núcleos de computación.Cada procesador viene con 16 GB de RAM (1 GB por núcleo).Fermi es utilizado por equipos de investigación italianos y europeos para realizar los cálculos necesarios en proyectos de investigación a gran escala para resolver problemas fundamentales en ciencia y tecnología.El sistema lleva el nombre de Enrico Fermi, un físico nuclear italiano.

10.Subconjunto de prueba DARPA (EE. UU.) - 1,5 petaflops

Este sistema es un servidor IBM Power 775 con 63360 núcleos, que alcanza un rendimiento de 1,5 petaflops. Otra información sobre este momento no.

En conclusión…

Desarrollo ruso: el superordenador "Lomonosov", propiedad de la Universidad Estatal de Moscú, que lleva el nombre de M.V. Lomonosov, en esta lista (a fines de 2012) ocupa el vigésimo segundo lugar. Su rendimiento fue de 0,9 petaflops. La principal razón por la que los automóviles nacionales no ocupan posiciones de liderazgo en las clasificaciones internacionales, los fabricantes rusos citan unánimemente la falta de financiación adecuada.

El principal tipo de nodos que proporcionan más del 90% del rendimiento de una supercomputadora es T-Blade2. Esta plataforma de supercomputadora fue creada por ingenieros de T-Platforms desde cero; todas sus placas y componentes mecánicos son desarrollos patentados por la empresa. En términos de densidad computacional por metro cuadrado de área, T-Blade2 no tiene análogos en el mundo. ¡Así que los fabricantes rusos, a pesar de todo, pueden estar orgullosos de haber creado la supercomputadora más "compacta" del mundo!

Flops es una unidad que representa el rendimiento de una supercomputadora. Un petaflops (1 Pflops) significa que la máquina puede realizar 1 cuatrillón (1.000 billones) de operaciones por segundo. Ahora solo dos máquinas tienen una capacidad de más de 1 Pflops: la Jaguar, ensamblada por Cray, y la Roadrunner, fabricada por IBM. Ambas supercomputadoras están ubicadas en los Estados Unidos. En general, de los diez primeros, solo dos supercomputadoras se encuentran fuera de Estados Unidos: en Alemania y China.

04.08.2009 12:20

Hoy en día, la industria informática está a la vanguardia de la ciencia y la tecnología. Para resolver problemas complejos en el campo de la física, astronomía, biología, medicina, se requiere una gran potencia informática. Son las supercomputadoras las que pueden ayudar con esto, porque fueron creadas para esto.

Recientemente, ha aparecido información con bastante frecuencia de que se ha creado otra supercomputadora en algún lugar. Pero, ¿qué es este milagro de la tecnología? En el sentido moderno, una supercomputadora es una poderosa máquina de computación electrónica con un rendimiento de más de un billón de operaciones de punto flotante por segundo o teraflops. Flops (del inglés. Floating point Operations Per Second) es un valor para medir el rendimiento de las computadoras, que muestra cuántas operaciones de coma flotante por segundo realiza un sistema informático en particular. Como regla general, una supercomputadora moderna es un multiprocesador o un complejo de múltiples computadoras (y en algunos casos una versión combinada) que opera en una memoria común y un campo común de dispositivos externos.

Tradicionalmente, el principal campo de aplicación de las supercomputadoras es la investigación científica. La física del plasma y la mecánica estadística, la física de la materia condensada, la física molecular y atómica, la teoría de las partículas elementales, la dinámica de los gases y la teoría de la turbulencia, la astrofísica son solo algunas de las áreas en las que está involucrada una enorme potencia informática.

Hoy en día, los sistemas informáticos superpoderosos también se utilizan para resolver problemas técnicos. Estas son, en primer lugar, las tareas de la industria aeroespacial y automotriz, la energía nuclear, la predicción y desarrollo de yacimientos minerales, la industria del petróleo y el gas, así como la construcción de una supercomputadora directamente.

Las supercomputadoras también se utilizan tradicionalmente con fines militares. Además de desarrollar una variedad de armas, simulan su uso. Por ejemplo, en Estados Unidos, se requerirá la potencia de cálculo de la supercomputadora del Departamento de Energía para simular el uso de armas nucleares, lo que permitirá abandonar por completo las pruebas nucleares reales en el futuro.

Actualmente, la mayoría de las supercomputadoras TOP-500 se dedican a la investigación científica. En esta área, están involucradas las 72 máquinas informáticas y de información más poderosas. La industria financiera cuenta con 46 supercomputadoras, 43 máquinas que sirven a la geofísica, 33 que trabajan en servicios de información, 31 que gestionan la logística, 29 que desarrollan semiconductores, 20 que producen software, 18 que se utilizan en servicios de información y 12 sistemas que ejecutan Internet.

Trabajar con grandes conjuntos de cálculos distingue a las supercomputadoras de los servidores y mainframes: sistemas informáticos con un alto rendimiento general diseñados para resolver tareas típicas, por ejemplo, mantener grandes bases de datos o trabajar con varios usuarios al mismo tiempo.

Un aumento en el rendimiento de los sistemas informáticos se produce principalmente debido a un aumento en la velocidad de la base física y tecnológica ( componentes electrónicos, dispositivos de memoria, medios de comunicación, entrada-salida y visualización de información) y el desarrollo del paralelismo en el proceso de procesamiento de la información en todos los niveles estructurales del sistema, que se asocia con un aumento en el número de componentes involucrados (elementos de procesamiento, volúmenes de memoria, dispositivos externos).

La arquitectura de supercomputadora más popular (72% en la lista TOP-500) en la actualidad son los llamados clústeres. Para construir una arquitectura de clúster de una supercomputadora, se utilizan nodos de computación, que a veces son las computadoras más comunes. En dicho nodo, generalmente hay varios procesadores, de 2 a 8. Para esto, se utilizan componentes bastante comunes y ampliamente disponibles en el mercado: placas base (multiprocesador SMP), procesadores de Intel, AMD o IBM, así como ordinarios. Módulos RAM y discos duros.
En su historia relativamente corta, las supercomputadoras han evolucionado desde sistemas de bajo consumo de energía según los estándares modernos hasta máquinas con un rendimiento fantástico.

La primera mención de una supercomputadora se remonta a finales de los años 20 del siglo pasado, cuando este término apareció en las páginas del periódico New York World con la frase "supercomputación" (traducida del inglés - supercomputing). . Este concepto referido a tabuladores - computadoras electromecánicas fabricadas por IBM para y para las necesidades de la Universidad de Columbia y que producían los cálculos más complejos para ese momento. Naturalmente, entonces simplemente no había supercomputadoras en el sentido moderno, este ancestro lejano de las computadoras modernas era más bien una especie de calculadora.

La referencia al término "supercomputadora" en relación con un potente sistema informático electrónico se atribuye a George A. Michael y Sidney Fernbach, empleados del Laboratorio Nacional de Livermore (EE. UU., California) y Control Data Corporation. A finales de los años 60, se dedicaron a la creación de potentes ordenadores para las necesidades del Departamento de Defensa de Estados Unidos y la industria energética. Fue en el Laboratorio Livermore donde se desarrollaron la mayoría de las supercomputadoras, incluida la supercomputadora más rápida del mundo de 2004 a 2008, la Blue Gene / L.

Sin embargo, el término "supercomputadora" se generalizó gracias al desarrollador informático estadounidense Seymour Cray, quien en 1957 creó Control Data Corporation, que se dedicaba al diseño y construcción de sistemas informáticos electrónicos que se convirtieron en los antepasados ​​de las supercomputadoras modernas. En 1958, bajo su liderazgo, se desarrolló la primera computadora potente del mundo basada en transistores CDC 1604. Cabe señalar que la compañía de Seymour Kray fue la primera en producir supercomputadoras en masa: en 1965, la máquina CDC-6600 con una capacidad de 3 millones de operaciones por segundo ingresaron al mercado. Esta computadora se convirtió en la base de toda una dirección que Cray fundó en 1972 y llamó Cray Research. Esta empresa se dedicaba exclusivamente al desarrollo y producción de supercomputadoras. En 1976, Cray Research lanzó el sistema informático CRAY-1 con una velocidad de aproximadamente 100 megaflops. Y nueve años después, en 1985, la supercomputadora CRAY-2 supera la velocidad de cálculo de 2 gigaflops.

En 1989, Seymour Cray abre Cray Computer Corporation con un enfoque claro en las perspectivas del mercado de supercomputadoras. Aquí crea la supercomputadora CRAY-3, cuya velocidad ya ha alcanzado los cinco gigaflops. Asociado con esta computadora dato interesante... El caso es que luego de la aparición de CRAY-3, la expresión "Cray time" ingresó al idioma inglés, lo que significaba el costo de una hora de funcionamiento de una supercomputadora (en ese momento era de $ 1,000 la hora). Hay otra expresión que circulaba en los círculos de los especialistas en informática: "Una supercomputadora es cualquier computadora creada por Seymour Cray".

Vale la pena señalar que en los años 80 del siglo XX, aparecieron muchas pequeñas empresas competidoras que crearon computadoras de alto rendimiento. Pero a mediados de los 90, incapaces de resistir la competencia con las grandes corporaciones, la mayoría de las pequeñas y medianas empresas abandonaron este campo de actividad.

Hoy las supercomputadoras son sistemas únicos creado por reproductores informáticos "tradicionales" como IBM, Hewlett-Packard, Intel, NEC y otros. Exactamente estos gigantes informáticos ahora están dictando las reglas del juego en los sistemas informáticos electrónicos de alto rendimiento.

En 1997, el estadounidense Intel lanzó su supercomputadora ASCI Red, que se convirtió en el primer sistema del mundo con una velocidad de más de un billón de operaciones por segundo: 1.334 teraflops. Las supercomputadoras Intel mantuvieron el liderazgo durante otros dos años, pero en 2000, la primera fue la computadora ASCI White de IBM instalada en el Laboratorio Nacional Lawrence Livermore, que produjo 4 billones de dólares por segundo. 938 mil millones de cálculos (4.938 teraflops). Esta supercomputadora mantuvo la posición de liderazgo durante un año más, habiendo recibido una velocidad igual a 7.226 teraflops después de la actualización. Pero ya en abril de 2002, la empresa japonesa NEC anunció el lanzamiento del superordenador Earth Simulator, que era capaz de alcanzar una velocidad máxima de 35,86 teraflops.

El mundo de las supercomputadoras experimentó otro cambio de líderes en el otoño de 2004: el 29 de septiembre, la supercomputadora de la compañía IBM Blue Gene / L ocupó el primer lugar en el mundo. Este potente sistema informático alcanzó una velocidad de 36,01 teraflops. Sin embargo, este récord no duró mucho: ya el 26 de octubre, la Administración Nacional de Aeronáutica y del Espacio (NASA) de los EE. UU. Anunció que su nueva supercomputadora Columbia, construida por Silicon Graphics y que lleva el nombre del transbordador que murió en febrero de 2003, realizó una serie de cálculos a una velocidad de 42,7 teraflops. Unos días después, la misma computadora pudo aumentar la velocidad a 51,87 teraflops.
A principios de noviembre de 2004, el título de poseedor del récord absoluto fue nuevamente ganado por Blue Gene / L, otra muestra del cual fue lanzada por IBM para el Departamento de Defensa de EE. UU. Actualmente, la velocidad máxima de su trabajo supera los 70,72 teraflops. Esta computadora fue líder hasta junio de 2008, cuando IBM para el laboratorio nuclear de Los Alamos (EE. UU., Nuevo México) construyó su próxima obra maestra de supercomputadoras: el sistema informático electrónico de correcaminos más poderoso jamás creado.

Especialmente para la contabilidad de supercomputadoras, se estableció el proyecto TOP-500, cuya tarea principal es compilar una calificación y descripciones de las computadoras más poderosas del mundo. Este proyecto se inauguró en 1993 y publica una lista actualizada de supercomputadoras dos veces al año (en junio y noviembre).

Entonces, como ya se mencionó, la supercomputadora más poderosa en la actualidad, según la última edición de la calificación TOP-500, es el sistema informático IBM Roadrunner. Esta computadora se basa en un esquema híbrido de 6500 de doble núcleo Procesadores AMD Opteron y casi 13.000 procesadores IBM Cell 8i alojados en racks TriBlades dedicados conectados por Infiniband: un acceso telefónico de alta velocidad bus serial... Su rendimiento máximo es de 1.105 petaflops.

Roadrunner ejecuta Linux. La supercomputadora de IBM ocupa unos 1.100 metros cuadrados de espacio y pesa 226 toneladas, y su consumo de energía es de 3,9 megavatios. El costo del IBM Roadrunner fue de $ 133 millones.

El Departamento de Energía de EE. UU. Utilizará RoadRunner para calcular el envejecimiento de los materiales nucleares y analizar la seguridad y confiabilidad de un arsenal nuclear. Además, esta supercomputadora se utilizará para la informática científica, financiera, de transporte y aeroespacial.
El segundo lugar del ranking lo ocupa el superordenador Cray XT5 Jaguar, que está instalado en el laboratorio del Departamento de Energía de Estados Unidos en Oak Ridge, Tennessee. Su rendimiento es de 1.059 petaflops.

Jaguar estableció un nuevo récord de rendimiento después de agregar doscientos Cray XT5 a sus 84 Cray XT4. Estos últimos se basan en procesadores AMD Opteron de cuatro núcleos. Cada bloque Cray XT5 contiene hasta 192 procesadores. El número total de procesadores Jaguar es de 45 mil.

De los otros características técnicas de la supercomputadora, se conoce la cantidad de su RAM y la capacidad de las unidades de disco, son iguales a 362 terabytes y 10 petabytes, respectivamente.

A diferencia del IBM Roadrunner, la supercomputadora de Jaguar tiene que abordar tareas pacíficas. Por ejemplo, se utilizará para simular el cambio climático en áreas como las energías renovables y la ciencia de los materiales. Además, el Departamento de Energía de EE. UU. Dice que Jaguar permitirá la investigación de procesos que antes estaban fuera de discusión. Lo que estos procesos, lamentablemente, no se informa.

La tercera supercomputadora más potente del mundo, así como la más rápida de Europa, es el modelo IBM Blue Gene / P de la línea de supercomputadoras, que está instalada en el centro de investigación de la ciudad de Julich en Alemania. El complejo informático JUGENE, que se lanzó este verano, tiene 72 racks, que albergan 294,912 procesadores PowerPC de 450 núcleos a 850 MHz, y su potencia es de 825,5 teraflops. La capacidad de memoria del superordenador alemán es de 144 TB. Además, esta supercomputadora es uno de los dispositivos más económicos entre las soluciones similares: su consumo de energía es de aproximadamente 2,2 MW.

Los recursos computacionales de esta supercomputadora se utilizan, entre otras cosas, en el cálculo de proyectos relacionados con la investigación termonuclear, el desarrollo de nuevos materiales, la búsqueda de fármacos de próxima generación, así como en la modelización del cambio climático, el comportamiento de partículas elementales. , reacciones químicas complejas, etc. Los proyectos son manejados por un grupo de expertos independientes.

Por cierto, en noviembre de 2008, Rusia ocupa el puesto 11-14 en términos de número de sistemas instalados, junto con Austria, Nueva Zelanda y España. Estados Unidos es el líder en este indicador, donde hay alrededor de 300 supercomputadoras de la clasificación. Sin embargo, en términos de poder, la supercomputadora rusa MVS-100K más productiva, que realiza tareas en el Centro Interdepartamental de Supercomputadoras de la Academia de Ciencias de la Federación de Rusia, solo ocupa el puesto 54. A pesar de este hecho, MVS-100K con un rendimiento máximo de 95.04 teraflops por en la actualidad es la supercomputadora más potente instalada en los países de la CEI. Consiste en 990 módulos de cómputo, cada uno de los cuales está equipado con dos procesadores Intel Xeon de cuatro núcleos, con una frecuencia de 3 GHz. En un futuro próximo, está previsto aumentar el rendimiento de MVS-100K hasta 150 TFlops. Esta supercomputadora está diseñada para resolver una amplia gama de complejos problemas científicos y técnicos.

¿Cuáles son las perspectivas de las supercomputadoras en el futuro? Según los expertos, los más rosados. Pero ya está claro que su rendimiento crecerá bastante rápido debido al aumento en la cantidad de núcleos de procesador y la frecuencia promedio de los procesadores. Además, para resolver problemas aplicados en supercomputadoras, no solo se utilizarán procesadores de propósito general, sino también especializados (por ejemplo, procesadores gráficos desarrollados por Nvidia y ATI) diseñados para Tareas específicas... Además, los fabricantes de supercomputadoras buscarán nuevas soluciones arquitectónicas únicas que no solo aumenten la potencia de las computadoras, sino que también brinden ventajas en la competencia en el mercado comercial. Además, en el futuro, las supercomputadoras aumentarán notablemente la eficiencia debido al desarrollo de herramientas de software. Las habilidades intelectuales de las supercomputadoras también aumentarán y, junto con esto, crecerán las cualidades profesionales de los programadores y otros especialistas en TI.

También vale la pena señalar que en el futuro, los sistemas informáticos de alto rendimiento aumentarán gradualmente su presencia en el mercado informático mundial. Según IDC, el mercado mundial de supercomputadoras está creciendo a una tasa anual del 9,2%. Los ingresos de los fabricantes de supercomputadoras en el segundo trimestre de 2008 ascendieron a 2.500 millones de dólares, un 4% más que en el mismo período del año pasado y un 10% más que en el primer trimestre de 2008.

Según analistas de IDC, HP ocupó el primer lugar en términos de ingresos con una participación de mercado del 37%, seguida de IBM (27%) y cierra los "tres" líderes Dell (16%). Según la previsión de los analistas de IDC, el mercado de supercomputadoras para 2012 alcanzará los 15.600 millones de dólares.

De los sistemas presentados en el TOP-500, 209 (41,8%) fueron fabricados por especialistas de HP. IBM ocupa el segundo lugar con 186 computadoras, mientras que Cray ocupa el tercer lugar con 22 supercomputadoras.

En cuanto a Rusia, según Mikhail Kozhevnikov, director comercial de la empresa T-Platforms, el crecimiento anual en el mercado de supercomputadoras es de alrededor del 40%. Por lo tanto, según T-Platforms, el volumen del mercado de supercomputadoras en Rusia en 2007 ascendió a unos 60 millones de dólares, y en 2008 el mercado creció a unos 80 millones de dólares. Según Mikhail Kozhevnikov, incluso durante la crisis, se espera que en 2009 el mercado crezca alrededor del 60%, y en condiciones favorables, incluso hasta el 100%.

Como puede ver, las supercomputadoras solo están ganando impulso "comercial". Es difícil de imaginar, pero, de hecho, las computadoras voluminosas se venden como "pan caliente" en el mercado de las computadoras. ¿Deberíamos esperar una versión más pequeña de una supercomputadora con el mismo alto rendimiento que tienen ahora los grandes sistemas informáticos? Probablemente, solo las propias supercomputadoras pueden responder a esta difícil pregunta, porque ese es su trabajo.

Fin del trabajo -

Este tema pertenece a la sección:

Nueva lista de las supercomputadoras más poderosas nombradas

La creación de computadoras superpoderosas fue nombrada una de las prioridades de los autores tecnológicos. Pavel Lebedev la creación de computadoras superpoderosas fue nombrada una de las prioridades.

Si necesita material adicional sobre este tema, o no encontró lo que buscaba, le recomendamos utilizar la búsqueda en nuestra base de trabajos:

Qué haremos con el material recibido:

Si este material te resultó útil, puedes guardarlo en tu página en las redes sociales:

− 10 21 yottaflops − 10 24 xeraflops − 10 27

FLOPS(o fracasos o flop / s) (acrónimo del inglés. Florida punto flotante O peraciones PAG er S segundo , pronunciado como fracasos) es un valor utilizado para medir el rendimiento de las computadoras, que muestra cuántas operaciones de punto flotante por segundo realiza un sistema informático dado.

En la medida en computadoras modernas tienen un alto nivel de rendimiento, las derivadas de FLOPS son más comunes, formadas mediante el uso de prefijos SI estándar.

Los fracasos como medida de rendimiento

Como la mayoría de los otros indicadores de rendimiento, este valor se determina ejecutando un programa de prueba en una computadora de prueba que resuelve un problema con un número conocido de operaciones y calcula el tiempo que tomó resolverlo. La prueba de rendimiento más popular en la actualidad es el programa LINPACK, que se utiliza, entre otras cosas, para compilar la calificación de supercomputadora TOP500.

Una de las ventajas más importantes del indicador de flops es que, hasta cierto punto, puede interpretarse como un valor absoluto y calcularse teóricamente, mientras que la mayoría de las otras medidas populares son relativas y le permiten evaluar el sistema bajo prueba solo en comparación con un número de otros. Esta característica permite utilizar los resultados del trabajo de varios algoritmos para la evaluación, así como evaluar el rendimiento de los sistemas informáticos que aún no existen o están en desarrollo.

Límites de aplicabilidad

A pesar de la aparente falta de ambigüedad, en realidad los fracasos son una medida bastante mala de desempeño, ya que su definición misma es ambigua. Bajo la "operación de punto flotante" se pueden esconder muchos conceptos diferentes, sin mencionar el hecho de que el papel importante en estos cálculos lo juega el ancho de los operandos, que tampoco se especifica en ninguna parte. Además, la cantidad de flops está influenciada por muchos factores que no están directamente relacionados con el rendimiento del módulo informático, tales como: el ancho de banda de los canales de comunicación con el entorno del procesador, el rendimiento de la memoria principal y la sincronización de la caché. memoria a diferentes niveles.

Todo esto lleva en última instancia al hecho de que los resultados obtenidos en la misma computadora usando diferentes programas pueden diferir significativamente, además, con cada nueva prueba, se pueden obtener diferentes resultados usando el mismo algoritmo. Este problema se resuelve en parte mediante el acuerdo sobre el uso de programas de prueba monótonos (el mismo LINPACK) con promediar los resultados, pero con el tiempo las capacidades de las computadoras "superan" el alcance de la prueba aceptada y comienza a dar resultados artificialmente bajos. ya que no utiliza las últimas capacidades de los dispositivos informáticos. Y para algunos sistemas, las pruebas generalmente aceptadas no se pueden aplicar en absoluto, por lo que la cuestión de su rendimiento permanece abierta.

Razones para un uso generalizado

A pesar de la gran cantidad de deficiencias importantes, el indicador de fracasos continúa utilizándose con éxito para evaluar el rendimiento en función de los resultados de la prueba LINPACK. Las razones de esta popularidad se deben, en primer lugar, al hecho de que los fracasos, como se mencionó anteriormente, son un valor absoluto. Y, en segundo lugar, muchos problemas de la ingeniería y la práctica científica, en última instancia, se reducen a la resolución de sistemas de ecuaciones algebraicas lineales, y la prueba LINPACK se basa precisamente en medir la velocidad de resolución de dichos sistemas. Además, la gran mayoría de las computadoras (incluidas las supercomputadoras) se construyen de acuerdo con la arquitectura clásica utilizando procesadores estándar, lo que permite el uso de pruebas generalmente aceptadas con alta confiabilidad. Como se muestra en procesadores núcleo Intel 2 Quad Q9450 2.66GHz @ 3.5GHz e Intel Core 2 Duo E8400 3000 MHz (2008) LINPACK no usa soluciones de expresión algebraica, ya que ninguna operación puede ir más rápido que el reloj de 1 procesador. Entonces, para los procesadores Intel Core 2 Quad, un reloj requiere uno o dos hercios. Dado que para las tareas de punto flotante: división / multiplicación, suma / resta - se requiere mucho más de un ciclo de reloj, se puede ver que estos procesadores no podían producir 48 Gigaflops y 18.5 Gigaflops, respectivamente. A menudo, en lugar de una operación de división de punto flotante, se utiliza la carga de datos en modo DMA desde la RAM a la pila del procesador. Así es como funciona LINPACK en algunas pruebas, pero estrictamente hablando, el resultado no es un valor de flops.

Nota: La observación sobre la imposibilidad de realizar más de una operación por ciclo es absolutamente incorrecta, ya que todos los procesadores modernos en cada uno de sus núcleos contienen varias unidades de ejecución de cada tipo (incluidas las de operaciones de coma flotante) que trabajan en paralelo y pueden ejecutar más de una. instrucción por ciclo. Esta característica La arquitectura se llama superescalar y apareció por primera vez en el primer procesador

Revisión del rendimiento del sistema real

Debido a la alta dispersión de los resultados de las pruebas LINPACK, se dan valores aproximados, obtenidos promediando indicadores basados ​​en información de diferentes fuentes. El rendimiento de las consolas de juegos y los sistemas distribuidos (con una especialización limitada y no admiten la prueba LINPACK) se proporcionan como referencia de acuerdo con los números indicados por sus desarrolladores. Se pueden obtener resultados más precisos que indiquen los parámetros de sistemas específicos, por ejemplo, en el sitio web.

Supercomputadoras

Computadoras personales

Procesadores

  • Intel Core 2 Duo E8400 3.0GHz () - 18.6 Gflops usando la versión estándar de LINPACK 10
  • Intel Core 2 Duo E8400 3.0GHz @ 4.0GHz () - 25 Gflops (LINPACK Benchmark 10.0 64-bit) en Windows Vista x64 Ultimate SP1
  • Intel Core 2 Quad Q9450 2.66GHz @ 3.5GHz - 48GFlops (LINPACK Benchmark 10.0 64-bit) en Windows 2003sp2 x64

Computadoras de bolsillo

Sistemas distribuidos

Consolas de juegos

Hombre y calculadora

Notas (editar)

ver también

Enlaces

  • TOP500 Calificación de supercomputadora TOP500 (ing.)
  • Servidor de base de datos de rendimiento Base de datos de rendimiento de computación grande
  • Colección de pruebas comparativas de PC de Roy Longbottom Una selección de pruebas comparativas de PC (incluido LINPACK) y resultados de pruebas (ing.)
  • Linpack CPU Benchmark para Pocket PC Versión LINPACK para Pocket PC

Fundación Wikimedia. 2010.

Vea qué es "Petaflops" en otros diccionarios:

    Captura de pantalla del cliente [correo electrónico protegido] para PlayStation 3, que muestra un modelo 3D de una proteína simulada Computación distribuida ... Wikipedia

Sony Computer Entertainment Inc. anunció con orgullo que la participación del sistema de entretenimiento PLAYSTATION 3 permitió el proyecto [correo electrónico protegido] Universidad de Stanford para lograr una potencia agregada superior a 1 petaflops.

Petaflops es la capacidad de una computadora o red para realizar 1 cuatrillón (uno seguido de 24 ceros) cálculos de punto flotante por segundo (FLOPS). En otras palabras, si cada persona en la Tierra realizara un cálculo matemático simple (por ejemplo, calcular un porcentaje de una cierta cantidad), entonces cada terrícola necesitaría hacer 75,000 cálculos matemáticos simples por segundo para obtener el poder de computación total de la humanidad. para alcanzar petaflops.

Un aumento similar en la potencia de cálculo del proyecto. [correo electrónico protegido] acelerará significativamente la investigación que anteriormente llevaba décadas. Todo esto es posible gracias al motor de banda ancha celular de PLAYSTATION 3 (Cell / B.E.), que tiene una potencia de procesamiento de más de 180 GFLOPS (miles de millones de operaciones de punto flotante por segundo). Celda / B.E. aproximadamente 10 veces más rápido que un procesador de PC convencional, por lo que PLAYSTATION 3 se puede llamar literalmente una supercomputadora doméstica. La participación de PLAYSTATION 3 en el proyecto ayuda a los científicos a identificar las causas de enfermedades como la enfermedad de Parkinson, la enfermedad de Alzheimer y el cáncer.

Según el profesor adjunto de química de la Universidad de Stanford y líder del proyecto [correo electrónico protegido] Vijay Pande, agregando PLAYSTATION 3 al proyecto [correo electrónico protegido] poner a disposición de los científicos un poder con el que ni siquiera podrían soñar.

A su vez, el presidente y CEO de la división estadounidense de SCEI, Jack Tretton, dijo que incluso en la etapa de desarrollo, los ingenieros de la empresa sabían que el poder de PLAYSTATION 3 se usaría no solo para entretenimiento, sino también para beneficio de todos. humanidad. Para todo el equipo de SCEI, el uso de su creación en proyectos como [correo electrónico protegido], - este es un motivo de orgullo.

La investigación de proteínas es un proceso extremadamente complejo. Tengo computadora ordinaria solución la tarea más simple puede tardar hasta 30 años. [correo electrónico protegido] distribuye los cálculos entre miles de computadoras conectadas en una sola red. Hasta hace poco en [correo electrónico protegido] usado solamente Computadoras personales... El proyecto involucró alrededor de 200 mil PC, cuya capacidad total fue de aproximadamente un cuarto de petaflops. Gracias a una actualización de firmware el 15 de marzo de 2007, PLAYSTATION 3 "aprendió" cómo trabajar con el proyecto. Después de eso en [correo electrónico protegido] más de 600 mil usuarios de PLAYSTATION 3 se han registrado, lo que les permitió superar la marca de potencia de 1 petaflops.

Para tomar parte en [correo electrónico protegido], solo necesita conectar PLAYSTATION 3 a Internet, descargar la nueva versión de la software Software del sistema y haga clic en el icono [correo electrónico protegido] Para obtener más información, consulte la sección Red del menú principal de XMB (XrossMediaBar). En la configuración, puede configurar la opción inicio automático Anexos [correo electrónico protegido] mientras PLAYSTATION 3 está en modo de espera. Para que la aplicación se inicie automáticamente, la PLAYSTATION 3 debe estar encendida y conectada a Internet.

se debe notar que [correo electrónico protegido] Es solo el comienzo. SCEI planea agregar soporte para muchos otros proyectos de computación distribuida a PLAYSTATION 3 en una variedad de campos científicos, desde la medicina hasta la investigación social y ambiental. Al mismo tiempo, los propietarios de PLAYSTATION 3 podrán determinar por sí mismos dónde utilizar la potencia de su sistema de entretenimiento.