Las supercomputadoras prefieren Linux
+6
Herlan_Villanueva
Darlyn_Jimenez
Brigith_Espinoza
Vladimir_Fernandez
Miguel_Gutierrez
Rodrigo_Condori
10 participantes
Página 1 de 1.
Las supercomputadoras prefieren Linux
Introducción
Cada seis meses, la lista Top500 recopilada por universidades reconocidas mundialmente como la Universidad de Mannheim (Alemania) y Universidad de Tennessee (Knoxville) que dice cuáles son las supercomputadoras más potentes del mundo. Y entre otros datos, Linux destaca como el sistema operativo de casi todos.Más o menos sabemos qué sistema operativo hace funcionar nuestro teléfono móvil y nuestro ordenador. Y echando un vistazo a las estadísticas disponibles, podemos saber qué sistemas operativos utiliza la mayoría de usuarios en todo el mundo, tal y como vimos en este artículo de abril.
Aunque pueden cambiar los porcentajes, la tendencia actual es el dominio de Android en dispositivos móviles e iOS de Apple como segundo sistema móvil. En ordenadores portátiles y de sobremesa, Windows sigue siendo quien domina, seguido de macOS y Linux.
Pero, ¿qué ocurre con las supercomputadoras? ¿Qué sistema operativo emplean para manejar terabytes de información y procesar teraflops? ¿Con qué software controlan los más de 10 millones de núcleos que tiene la supercomputadora más potente?
Pues según los datos disponibles por TOP500, la lista oficial más respetada que cada seis meses clasifica las supercomputadoras por su potencia de procesado, los 500 superordenadores más potentes tienen Linux como sistema operativo.
Un vistazo al TOP 10
Veamos qué software corre por las 10 supercomputadoras más potentes. Básicamente se encuentran en China (2), Estados Unidos (4) y Japón (3). Suiza es el cuarto país presente en la lista de TOP 10.
Las dos supercomputadoras más potentes, ambas en China, utilizan Sunway RaiseOS y Kylin Linux, respectivamente. Ambos sistemas operativos son versiones de Linux creadas en exclusiva en China y están disponibles en más de 200 de las 500 supercomputadoras más rápidas.
Sunway RaiseOS fue creado exclusivamente para funcionar con la arquitectura Sunway, procesadores made in China que han logrado el primer puesto en el TOP500.
Kylin Linux, por su parte, fue creado por la Universidad Nacional de Defensa Tecnológica enfocándose en la seguridad y lo emplean tanto el ejército chino como otras organizaciones gubernamentales chinas.
La tercera supercomputadora más potente, la suiza Piz Daint, cuenta con su propio Linux, Cray Linux Environment, diseñado especialmente para trabajar con más de 500.000 núcleos de procesador.
La supercomputadora más potente de Japón emplea CentOS. Basado en Red Hat Enterprise Linux, está pensado para entornos profesionales y gestión de redes.
Y en cuanto a los supercomputadores norteamericanos, depende del fabricante. Titan, Cori y Trinity, por ejemplo, también emplean Cray Linux Environment.
Razones para usar Linux
¿Qué hace de Linux el candidato ideal para gestionar las supercomputadoras más potentes de todo el mundo?
Podemos hablar de muchos motivos, pero el más relevante es la maleabilidad de Linux a coste cero. Es decir, podemos adaptar Linux a necesidades concretas, como una arquitectura específica (como ocurre con la mayoría de supercomputadoras de la lista TOP 10).
En muchos casos, los propios fabricantes de las supercomputadoras proporcionan su propio sistema operativo basado en Linux adaptado a las tecnologías que va a emplear.
En otros, se opta por una versión de Linux ya existente, normalmente una versión enfocada a gestión de grandes parques de ordenadores o de redes, como CentOS, Red Hat Enterprise Linux o SUSE Linux Enterprise Server.
En segundo lugar, crear tu propio Linux es gratis. Y adquirir una licencia de los Linux empresariales ya existentes es mucho más barato que lo que costaba una licencia UNIX de hace una década, un software con licencia cerrada del que ya hemos hablado con anterioridad. Pero aun asi podemos ver las diferentes razones porque usar Linux:
Es un sistema multiusuario avanzado
En la medida en que Linux se basa en Unix, originalmente pensado para su utilización en redes, se explican algunas de sus importantes ventajas en relación a la seguridad respecto de Windows. El usuario con más privilegios en Linux es el administrador; puede hacer cualquier cosa en el SO. Todos los otros usuarios no obtienen tantos permisos como el root o administrador. Por esta razón, en caso de ser infectado por un virus mientras un usuario común está sesionado, sólo se infectarán aquellas porciones del SO a las que ese usuario tenga acceso. En consecuencia, el daño máximo que ese virus podría causar es alterar o robar archivos y configuraciones del usuario sin afectar seriamente el funcionamiento del SO como un todo. El administrador, además, estaría habilitado para eliminar el virus fácilmente.
Linux es mucho más “asegurable”
En la medida en que la seguridad, como vimos al comienzo, no es un estado sino un proceso, aún más importante que venir “desde fábrica” con una mejor configuración por defecto es poder brindarle al usuario la libertad suficiente como para adaptar los niveles de seguridad a sus necesidades. A esto es a lo que yo llamo “asegurabilidad”. En este sentido, Linux no sólo es reconocido por su enorme flexibilidad sino por permitir ajustes de seguridad que serían imposibles de conseguir en Windows. Esta es la razón, precisamente, por la que las grandes empresas eligen Linux para administrar sus servidores web.
No hay archivos ejecutables ni registro
En Windows, los programas maliciosos generalmente son archivos ejecutables que, luego de engañar al usuario o saltear su control, se ejecutan e infectan la máquina. Una vez que esto sucedió es muy difícil removerlos ya que, en caso de que podamos encontrarlo y eliminarlo, éste se puede replicar e incluso puede guardar configuraciones en el registro de Windows que le permitan “revivir”. En Linux, en cambio, no existen, en el sentido “Windows” de la palabra, archivos ejecutables.
Mejores herramientas para combatir los ataques zero-day
No siempre alcanza con tener todo el software actualizado. Los ataques zero-day (un ataque que explota vulnerabilidades que los propios desarrolladores del software todavía desconocen) son cada vez más comunes. Un estudio ha demostrado que lleva solamente seis días a los crackers desarrollar software malicioso que explote estas vulnerabilidades, mientras que le lleva meses a los desarrolladores detectar estos agujeros y lanzar los parches necesarios. Por esta razón, una política de seguridad sensible tiene siempre en cuenta la posibilidad de ataques zero-day.
Linux es un sistema modular
El diseño modular de Linux permite eliminar un componente cualquiera del sistema en caso de ser necesario. En Linux, se podría decir que todo es un programa. Hay un programita que gestiona las ventanas, otro que gestiona los logins, otro que se encarga del sonido, otro del video, otro de mostrar un panel de escritorio, otro que funciona como dock, etc. Finalmente, como las piezas de un lego, todas ellas forman el sistema de escritorio que conocemos y utilizamos diariamente.
En este video se resume porque linux es mucho mas seguro :
Conclusión
Podemos concluir que un sistema operativo como Linux es mucho más usado en este tipo de supercomputadoras debido a todas las características que posee más que todo la seguridad y la adaptabilidad a las propias necesidades, que un usuario común no apreciaría tanto. Por esta razón Linux es relativamente superior a Windows en este campo de las Supercomputadoras.
Rodrigo_Condori- Mensajes : 14
Puntos : 6
Fecha de inscripción : 16/02/2018
Re: Las supercomputadoras prefieren Linux
Es cierto que Linux es un SO por mucho más seguro que Windows pero tambien tiene sus vulnerabilidades, aunque no sean muchas sí es bueno saberlo.
La ejecución de "virus" es realmente complicada en Linux gracias a cómo funciona la arquitectura de Unix. Cada proceso, en lugar de tener acceso total a la memoria, sólo puede acceder a la memoria virtual que le ha sido asignada, quedando fuera del espacio de direcciones de un proceso el de otro proceso.
Por eso, lo que encontramos en Linux (también en Android, ya que es un sistema operativo basado en Linux). No son virus, sino exploits. Y sí, se puede confirmar que Linux es más seguro que Windows, al no necesitar ni antivirus para estar a salvo de ataques si tenemos nuestro sistema operativo siempre actualizado, siendo este básicamente el único requisito que tenemos que cumplir para estar totalmente a salvo.
EXPLOIT: Es un fragmento de software, fragmento de datos o secuencia de comandos o acciones, utilizada con el fin de aprovechar una vulnerabilidad de seguridad de un sistema de información para conseguir un comportamiento no deseado del mismo.
La ejecución de "virus" es realmente complicada en Linux gracias a cómo funciona la arquitectura de Unix. Cada proceso, en lugar de tener acceso total a la memoria, sólo puede acceder a la memoria virtual que le ha sido asignada, quedando fuera del espacio de direcciones de un proceso el de otro proceso.
Por eso, lo que encontramos en Linux (también en Android, ya que es un sistema operativo basado en Linux). No son virus, sino exploits. Y sí, se puede confirmar que Linux es más seguro que Windows, al no necesitar ni antivirus para estar a salvo de ataques si tenemos nuestro sistema operativo siempre actualizado, siendo este básicamente el único requisito que tenemos que cumplir para estar totalmente a salvo.
EXPLOIT: Es un fragmento de software, fragmento de datos o secuencia de comandos o acciones, utilizada con el fin de aprovechar una vulnerabilidad de seguridad de un sistema de información para conseguir un comportamiento no deseado del mismo.
Miguel_Gutierrez- Mensajes : 10
Puntos : 6
Fecha de inscripción : 14/02/2018
Linux en Supercomputadoras
Ubuntu gobierna la supercomputadora mas rapida del mundo
Ubuntu gobierna la supercomputadora más rápida del mundo, Tianhe-2, una bestia albergada en el Centro Nacional de Supercomputación de Guangzho, República Popular China.
Para este proyecto Canonical trabaja en colaboración con la Universidad Nacional de Defensa de China, todo con un fin que no pasa precisamente por hacer funcionar Ubuntu como escritorio, sino por construir la nube más rápida del planeta, con Ubuntu Server, OpenStack y Juju.
Caracteristicas de la Supercomputadora Tianhe-2
Según Wikipedia, Tianhe-2 “tiene un rendimiento de 33,86 petaFLOPS (33.860.000.000.000.000 operaciones de coma flotante por segundo), con un pico teórico de 54,9 petaFLOPS que la convierte en la supercomputadora más rápida del mundo. Está equipada con 16.000 nodos, cada uno con dos procesadores Intel Xeon IvyBridge E5-2692 (12 núcleos, 2,2 GHz) y tres procesadores Intel Xeon Phi 31S1P (57 núcleos, 1,1 GHz), cuya combinación da un total de 3.120.000 núcleos de computación. Es capaz de almacenar 12,4 PB, tiene una memoria del sistema de 1.375 TiB (1,34 PiB) y utiliza el sistema operativo Kylin Linux.
Ocupa una superficie de 720 m² y se calcula que ha costado entre 200 y 300 millones de dólares”.
la potencia de este portento electrónico está enfocada en efectuar análisis, censos y ejecutar aplicaciones gubernamentales.
Vladimir_Fernandez- Mensajes : 16
Puntos : 10
Fecha de inscripción : 14/02/2018
Re: Las supercomputadoras prefieren Linux
Datos estadísticos del uso preferencial de SO en las supercomputadoras
En el año 2012 Linux tenía el 94% de presencia en supercomputadoras, la cifra ha ido en ascenso desde entonces hasta llegar actualmente a 96.6%, el 0.4 % corresponde a UNIX.
En las siguientes gráficas se muestra actualmente cual es el porcentaje de uso por sistema operativo, los segmentos en los que son usados, por continente y que países son los que dominan en poseer supercomputadoras.
¿A que nos referimos con supercomputadora??
Una supercomputadora es el tipo de computadora más potente y más rápido que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica. Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, ésto para disipar el calor que algunos componentes alcanzan a tener. Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:
- Búsqueda y estudio de la energía y armas nucleares.
- Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
- El estudio y predicción de tornados.
- El estudio y predicción del clima de cualquier parte del mundo.
- La elaboración de maquetas y proyectos de la creación de
UNIX como SO de las supercomputadoras en un início
En el siguiente gráfico se mostrará la evolución de la preferencia en el sistema operativo usado por las supercomputadoras
El sistema operativo UNIX fue preferido en años anteriores pero en la actualidad este fue reemplazado por LINUX ya que es un sistema operativo libre y gratuito una de las características de LINUX es la modificación del código fuente el cuál está disponible para todo el mundo.
Algunas definiciones del artículo
¿Que es terabyte ?
Terabyte es un término usado para describir la cantidad de datos almacenados en el disco duro de una computadora,1 terabyte equivale aproximadamente a 300 horas de video o 3,6 millones de fotografías digitales estándar
¿Que es un teraflops?
Teraflop es una unidad de medida, y fue implementada debido a la necesidad de medir el rendimiento de las grandes supercomputadoras, las cuales pueden manejar hasta trillones de operaciones por segundo.
Este tipo de equipos obviamente no son de utilización hogareña, ya que sus costes, peso y tamaño, además del impresionante consumo de energía que emplean las vuelven prohibitivas para cualquier otro ámbito que no sea la investigación, la climatología, o las necesidades militares
BIBLIOGRAFIA
[Tienes que estar registrado y conectado para ver este vínculo]
[Tienes que estar registrado y conectado para ver este vínculo]
[Tienes que estar registrado y conectado para ver este vínculo]
[Tienes que estar registrado y conectado para ver este vínculo]
Última edición por Brigith_Espinoza el Miér Feb 28, 2018 8:38 pm, editado 1 vez
Brigith_Espinoza- Mensajes : 16
Puntos : 10
Fecha de inscripción : 14/02/2018
Re: Las supercomputadoras prefieren Linux
Primeros SO que se utilizaron en los supercomputadores
Las primeras supercomputadoras que hubo en la historia, no disponían de un sistema operativo incorporado, con lo cual cada sede, laboratorio, etc. que utilizaba uno de estos supercomputadores se hacía cargo de tener que desarrollar un SO en concreto y a la medida de su supercomputador. Por ejemplo, el considerado primer supercomputador de la historia, el CDC600, utilizó el sistema operativo llamado Chippewa (COS, que también es nombrado como sistema operativo Cray). Este sistema operativo era bastante simple y su característica principal consistía en poder controlar las diferentes tareas del sistema informático, de esta manera se conseguía que las diferentes tareas siempre dispusieran de lo que requerían para llevar a término su fin. A raíz de este sistema operativo surgieron nuevos, como por ejemplo los llamados Kronos, Scope o Nos.
El sistema operativo Kronos fue implantado durante la década de los 70 y su característica principal es que las diferentes tareas puedan acceder al mismo tiempo a algo que requerían varias para llevar a cabo su faena. El sistema operativo Scope (Supervisory Control Of Program Execution) fue utilizado durante la década de los 60, su característica principal es que permite tener controladas todas las tareas del sistema.
El sistema operativo Nos (Network Operating System) se puede decir que fue el que sustituyó a los dos anteriores durante la década de los 70, sus características eran muy similares al de su predecesor Kronos, pero lo que se buscaba concretamente con Nos era tener un sistema operativo común en todas las creaciones de CDC (Control Data Corporation) que había. En la década de los 80, Nos fue sustituido por Nos/Ve (Network Operating System/ Virtual Environment), que a diferencia de su predecesor disponía de una memoria virtual. A finales de la década de los 80 se comenzaron a implantar en los supercomputadoras los llamados sistemas operativos modernos o los que han sido la base de los actuales, los sistemas operativos basados en UNIX. Los primeros fueron los llamados UNICOS, que fueron los que surgieron con fuerza durante esa década.
Evolución del porcentaje de uso de los SO en supercomputadores
Junio 1993
Los primeros sistemas operativos que tienen incorporados los supercomputadores eran desarrollados a la medida y específicamente para cada uno de ellos, siendo por ejemplo Chippewa, Kronos, Scope o Nos algunos de ellos. Pero a finales de los 80 comienza a haber un cambio significativo y los supercomputadores comienzan a decantarse por los sistemas operativos basados en UNIX como UNICOS. En 1993 se comienzan a hacer la lista de los primeros 500 supercomputadores del mundo y en la que se especifica qué sistemas operativos utilizan cada uno. A partir de esta lista se pudo comenzar a hacer una estimación de la evolución de los sistemas operativos en ellos.
Junio 1993
El primer año que se realizó la lista del Top 500, Unix y UNICOS (basado en Unix) eran utilizados por más del 50% de las supercomputadoras, concretamente el 56,4%. Por lo tanto a principios de la década de los 90, se puede decir que los sistemas operativos que predominaban se basan en Unix.
Junio 2000
El siguiente año en el que hay un gran cambio es el 2000, porque es cuando Linux, que como veremos más adelante es el SO principal en las supercomputadoras en la actualidad, comienza a hacerse un hueco en el mundo de la supercomputación. En el año 2000 los sistemas basados en Unix siguen dominando, ya que los 5 primeros, AXI, Solaris, UNICOS, HP Unix y IRIX se basan en este ocupando simplemente entre ellos el 80,6% del porcentaje total, habiendo aun otros sistemas que en menores porcentajes utilizan también Unix. Como hecho destacable podemos ver que UNICOS que a principios de la década era el dominador ya no lo es y pasa a serlo AIX.
Junio 2003
El siguiente año significativo es el 2003, y por un hecho en concreto y es que Linux pasa a colocarse el primero de la lista, aunque los sistemas basados en Unix siguen predominando en el total.
Junio 2012
El año 2012 es cuando Linux alcanza su tope hasta el día de hoy con un porcentaje del 83,8%, habiendo además ya otros sistemas que también están basados en Linux.
Junio 2015
La última lista hecha del top 500, muestra como los sistemas basados en Linux dominan totalmente el sector de la supercomputación en la actualidad con un 97,2%, concretamente 486 de los 500 supercomputadores lo utilizan. El otro 2,7% restante está conformado básicamente por sistemas UNIX. Como dato interesante, Windows o Mac OS tienen un porcentaje prácticamente nulo en el sector de la supercomputación.
Motivo de este cambio, qué SO predomina actualmente y por qué
Ha habido un par de cambios claves en el mundo de los sistemas operativos que se usan en la supercomputación. El primero de ellos fue durante finales de la década de los 80, y fue cuando se pasó de que para cada supercomputadora tuviera que desarrollarse un SO a medida para ella, a aplicar sistemas operativos basados en UNIX. Este cambio fue debido a que llegó un punto en que el coste de desarrollar ese software específico era el mismo que el que se gastaba en hardware, cosa que hacía del todo inviable seguir por ese camino. También gracias a UNIX se podía proporcionar potencia de manera flexible a la supercomputadora, que era muy importante debido a los constantes cambios de las aplicaciones científicas en las que se utilizaban, o el cambio de hardware que había constantemente debido a la evolución de este.
El segundo gran cambio que hubo fue cuando se pasó, aproximadamente sobre el año 2003, de un dominio total de UNIX al dominio total de Linux, que es el SO que predomina en la actualidad. Este cambio fue debido a varios motivos: el primero era la flexibilidad que nos ofrece Linux, ya que este dispone de un kernel abierto con el cual hacer modificaciones y optimizaciones sobre él. Por otra parte, el coste de las licencias de Linux está muy por debajo de otros y en global es más rentable, ya que tiene una comunidad alrededor que ayuda y aporta de forma gratuita.
Linux es el SO predominante en la actualidad debido a varios factores, como por ejemplo que su coste es nulo, que dispone de un kernel genérico, que tiene una gran escalabilidad que le permite adaptarse a grandes cargas fácilmente, que su instalación se basa en pequeños módulos, los cuales cada uno hace una tarea: con esto se consigue que si se modifica uno no afecte a los demás, también su código es abierto lo cual permite que en cualquier momento podamos modificar este ante cualquier cambio que se quiera o surja en la supercomputadora; otro punto es que detrás tiene una gran comunidad que da apoyo, y por último nos permite hacer pruebas de configuración de red sin la necesidad de tener que reiniciar el sistema.
Linux es el sistema dominante, las razones son obvias y una de ellas no es el costo, ya que como se podría imaginar cuando se invierten cientos de millones de dolares en estas modestas bestías nadie se va a fijar en el costo de la licencia del software y menos si se utilizan para actividades tan críticas como las mencionadas al principio, seguramente la razón más importante sea la adaptabilidad que únicamente provee el software libre o de código abierto que permite optimizar el software hasta en el detalle más ínfimo y adecuarlo a cualquier arquitectura e incluso a arquitecturas múltiples.
Principales usos
Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación, damos algunos ejemplos:
- Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro.
- Los científicos que investigan el espacio exterior y sus propiedades utilizan las supercomputadoras para simular los interiores estelares, simular la evolucion estelar de las estrellas (eventos de supernova, colapso de nubes moleculares, etc.), realizar simulaciones cosmologicas y modelar el clima espacial.
- Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.
- Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.
- Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis quistica y muchos tipos de cáncer.
- Las supercomputadoras se utilizan para modelar explosiones nucleares, limitando la necesidad de verdaderas pruebas nucleares.
Bibliografia
[Tienes que estar registrado y conectado para ver este vínculo]
Darlyn_Jimenez- Mensajes : 13
Puntos : 13
Fecha de inscripción : 14/02/2018
Re: Las supercomputadoras prefieren Linux
La supercomputadora con la que EE.UU. quiere superar a China
Una computadora capaz de hacer un trillón de cálculos por segundo. Ese es el ordenador que quiere construir Estados Unidos antes de 2025.
Permitirá unir en un solo organismo los esfuerzos de varios departamentos gubernamentales que llevan años investigando sobre la materia, el nuevo ente tendrá la tarea de construir el primer sistema de cómputo a exaescala del mundo, un superordenador que pueda realizar 1.000 pentaflops, un trillón de cálculos por segundo. Esa velocidad de procesamiento es 20 veces superior a la de la computadora más potente de la actualidad, una máquina china, y mil millones de veces superior al de un ordenador personal.
Podría revolucionar campos tan variados como la biología molecular o la predicción meteorológica, ya que aseguran que esa velocidad de procesamiento podría ayudar a crear medicamentos personalizados.
En la actualidad Estados Unidos ya tiene supercomputadoras, es el país del mundo con más ordenadores de ese tipo, según la lista publicada este mes por TOP500, una organización que clasifica el rendimiento de estas máquinas, sin embargo, aunque EE.UU. es el país con más superordenadores, no posee la más rápida, ese supercomputador está en China, se llama Tianhe-2 y tiene una capacidad de procesamiento de 33,86 pentaflops, el doble de la máquina estadounidense más rápida, Titan.
Podría revolucionar campos tan variados como la biología molecular o la predicción meteorológica, ya que aseguran que esa velocidad de procesamiento podría ayudar a crear medicamentos personalizados.
En la actualidad Estados Unidos ya tiene supercomputadoras, es el país del mundo con más ordenadores de ese tipo, según la lista publicada este mes por TOP500, una organización que clasifica el rendimiento de estas máquinas, sin embargo, aunque EE.UU. es el país con más superordenadores, no posee la más rápida, ese supercomputador está en China, se llama Tianhe-2 y tiene una capacidad de procesamiento de 33,86 pentaflops, el doble de la máquina estadounidense más rápida, Titan.
LAS SUPERCOMPUTADORAS DEL FUTURO
Herlan_Villanueva- Mensajes : 17
Puntos : 15
Fecha de inscripción : 15/02/2018
Complemento de reglas básicas de por que las computadoras prefieren linux
Estas son las reglas básicas de porqué esto es así:
1 – La naturaleza modular de Linux.
Una típica instalación de Linux está hecha de pequelos bloques o módulos y cada uno hace una tarea distinta, estos bloques juntos hacen que el Sistema operativo funcione. Esto hace que sea muy fácil hacer modificaciones a determinadas tareas sin afectar las demás. No hay ningún otro sistema operativo tiene esta libertad de extensión. Los módulos pueden ser modificados para ser usados en las supercomputadoras para obtener metas, como rendimiento, eficiencia energética, etc.
2 – Naturaleza genérica del kernel.
El Kenel es genérico. Un código fuente puede ser escrito para correr en supercomputadoras y en pequeños inventos. No hay que hacer grandes cambios al kernel para tener un gran sistema o uno pequeño.
3- Escalabilidad.
Escalabilidad se defino como la habilidad de un servidor en adaptarse a cargas altas. Es una medida de eficacia. Linux tiene una tremenda escalabilidad y pueden acostumbrarse a grandes cargas de forma sencilla.
4 – Naturaleza Código abierto.
Linux es por completo código abierto y su software también, esto permite personalizar completamente la máquina al milímetro. En caso de problemas de rendimiento, o agujeros de seguridad, se puede alterar el código directamente en cualquier momento para actualizarlo.
5 – Soporte de la comunidad.
Linux tiene una inmensa comunidad que da soporte, algo que ningún otro sistema tiene.
6 – Coste.
Como es normal el coste es totalmente gratuito.
7- Reinicios.
Se pueden hacer pruebas de configuraciones de red en caliente sin tener que reiniciar el sistema, para poder probar módulos independientes.
Bibliográfica
[Tienes que estar registrado y conectado para ver este vínculo]
1 – La naturaleza modular de Linux.
Una típica instalación de Linux está hecha de pequelos bloques o módulos y cada uno hace una tarea distinta, estos bloques juntos hacen que el Sistema operativo funcione. Esto hace que sea muy fácil hacer modificaciones a determinadas tareas sin afectar las demás. No hay ningún otro sistema operativo tiene esta libertad de extensión. Los módulos pueden ser modificados para ser usados en las supercomputadoras para obtener metas, como rendimiento, eficiencia energética, etc.
2 – Naturaleza genérica del kernel.
El Kenel es genérico. Un código fuente puede ser escrito para correr en supercomputadoras y en pequeños inventos. No hay que hacer grandes cambios al kernel para tener un gran sistema o uno pequeño.
3- Escalabilidad.
Escalabilidad se defino como la habilidad de un servidor en adaptarse a cargas altas. Es una medida de eficacia. Linux tiene una tremenda escalabilidad y pueden acostumbrarse a grandes cargas de forma sencilla.
4 – Naturaleza Código abierto.
Linux es por completo código abierto y su software también, esto permite personalizar completamente la máquina al milímetro. En caso de problemas de rendimiento, o agujeros de seguridad, se puede alterar el código directamente en cualquier momento para actualizarlo.
5 – Soporte de la comunidad.
Linux tiene una inmensa comunidad que da soporte, algo que ningún otro sistema tiene.
6 – Coste.
Como es normal el coste es totalmente gratuito.
7- Reinicios.
Se pueden hacer pruebas de configuraciones de red en caliente sin tener que reiniciar el sistema, para poder probar módulos independientes.
Bibliográfica
[Tienes que estar registrado y conectado para ver este vínculo]
Dimas_Lazo- Mensajes : 8
Puntos : -2
Fecha de inscripción : 14/02/2018
Re: Las supercomputadoras prefieren Linux
Así luce la computadora más potente de América Latina
El ordenador más potente de América Latina, que pronto podría convertirse en una de las mejores supercomputadoras del mundo.
Esta computadora se encuentra en el Laboratorio Nacional de Supercómputo del Sureste (LNS) con sede en la Benemérita Universidad Autónoma de Puebla (México), y es considerada la más potente en toda América Latina, cuya velocidad asciende a 153.41 terraflops, informa el sitio web De10.mx.
Además, la computadora ocupa el lugar 45 en el 'ranking' de los ordenadores que más cuidan el medioambiente, debido a su eficiencia energética.
De hecho sus índices de ahorro de energía son incluso mayores que los de la supercomputadora china Tianhe-2, según la lista Green500.
De acuerdo con los medios locales a finales de junio la computadora del LNS optará a colocarse entre las 500 supercomputadoras con mayor desempeño en el mundo.
BIBLIOGRAFIA
[Tienes que estar registrado y conectado para ver este vínculo]
El ordenador más potente de América Latina, que pronto podría convertirse en una de las mejores supercomputadoras del mundo.
Esta computadora se encuentra en el Laboratorio Nacional de Supercómputo del Sureste (LNS) con sede en la Benemérita Universidad Autónoma de Puebla (México), y es considerada la más potente en toda América Latina, cuya velocidad asciende a 153.41 terraflops, informa el sitio web De10.mx.
Además, la computadora ocupa el lugar 45 en el 'ranking' de los ordenadores que más cuidan el medioambiente, debido a su eficiencia energética.
De hecho sus índices de ahorro de energía son incluso mayores que los de la supercomputadora china Tianhe-2, según la lista Green500.
De acuerdo con los medios locales a finales de junio la computadora del LNS optará a colocarse entre las 500 supercomputadoras con mayor desempeño en el mundo.
BIBLIOGRAFIA
[Tienes que estar registrado y conectado para ver este vínculo]
Gabriel_Silva- Mensajes : 8
Puntos : 4
Fecha de inscripción : 19/02/2018
La Primera Super Computadora
[size=33]El CDC 6600 fue la primera supercomputadora de la historia. Diseñada en 1965 por Seymour Cray y fabricada por Control Data Corporation. Fue una versión mejorada del ordenador CDC 6400.[/size]
[size=33]El CDC 6600 posee una CPU de 60 bits y 10 unidades periféricas de procesamiento (PPUs) y se utiliza un marcador para el plotting de las órdenes.[/size]
[size=33]Fue utilizado principalmente para la investigación de la física de alta energía nuclear. El primer CDC 6600 fue entregado a la Organización Europea para la Investigación Nuclear (CERN) para su uso en la investigación de la energía nuclear. Con un rendimiento de 1 megaFLOPS, seguía siendo la computadora más rápida del mundo, entre los años 1964 y 1969, hasta la aparición del CDC 7600. En un principio, el CDC 7600 se diseñó para ser compatible con el 6600, siendo incluso nombrado en un principio como el CDC 6800. Pero se tuvo que abandonar dicha idea, en favor de mejorar el rendimiento. Mientras que la CPU de la 7600 se mantuvo compatible con el del 6600, las unidades de procesadores periféricos (PPU) eran diferentes, lo que requería el uso de un sistema operativo distinto. Un CDC 6600 está en exhibición en el Museo de Historia de la computacion en mountain view [/size]
Historia
[size=33]Después de una máquina experimental conocida como el Pequeño Personaje, Control Data Corporation entregó el CDC 1604, uno de los primeros computadores basados en transistores y que fue de las máquinas más rápidas en el mercado. El Consejo de Administración estaba encantado con esta nueva máquina, y realizaron planes para una nueva serie de máquinas que estuvieran más adaptadas al uso comercial. Cray no estaba interesado en ese proyecto, y se puso como meta crear una nueva máquina, que fuera 50 veces más rápida que el CDC 1604.[/size]
[size=33]Durante esta etapa, el CDC y Cray no se pusieron de acuerdo en la dirección que la empresa debería tomar. Finalmente, Cray habló con William Norris, directivo del CDC y le dejó claro que si las cosas no cambiaban, él se marcharía de la empresa. Norris sabía lo importante que era Cray, así que le dio luz verde para montar un laboratorio donde él quisiera. Seymour Cray trabajó junto a Tim Thornton, el arquitecto del sistema y el “genio oculto” de la 6600.[/size]
[size=33]Las máquinas de la época, usaban una CPU que generalmente, iba más lenta que la memoria principal. Por ejemplo, un procesador podría tomar 15 ciclos para multiplicar dos números, mientras que cada acceso a la memoria sólo tomaba una o dos. Esto significó que hubo un tiempo considerable en que la memoria principal estaba ociosa. Fue ese el tiempo de inactividad que el 6600 explotaba. En lugar de tratar que la CPU se encargara de todas las tareas, la CPU de la 6600 sólo se encargaba de la aritmética y la unidad lógica. Esto dio lugar a una CPU más pequeña que podría funcionar a una velocidad de reloj más alta. Junto con las velocidades más rápidas de conmutación de los transistores de silicio, la nueva CPU de la 6600 era superior a las demás. La base de la CPU 6600 es lo que hoy se conoce como sistema RISC, que se basada en realizar operaciones sencillas de forma paralela, para dejar antes la memoria libre.[/size]
[size=33]Referencias[/size]
[size=33]El CDC 6600 posee una CPU de 60 bits y 10 unidades periféricas de procesamiento (PPUs) y se utiliza un marcador para el plotting de las órdenes.[/size]
[size=33]Fue utilizado principalmente para la investigación de la física de alta energía nuclear. El primer CDC 6600 fue entregado a la Organización Europea para la Investigación Nuclear (CERN) para su uso en la investigación de la energía nuclear. Con un rendimiento de 1 megaFLOPS, seguía siendo la computadora más rápida del mundo, entre los años 1964 y 1969, hasta la aparición del CDC 7600. En un principio, el CDC 7600 se diseñó para ser compatible con el 6600, siendo incluso nombrado en un principio como el CDC 6800. Pero se tuvo que abandonar dicha idea, en favor de mejorar el rendimiento. Mientras que la CPU de la 7600 se mantuvo compatible con el del 6600, las unidades de procesadores periféricos (PPU) eran diferentes, lo que requería el uso de un sistema operativo distinto. Un CDC 6600 está en exhibición en el Museo de Historia de la computacion en mountain view [/size]
Historia
[size=33]Después de una máquina experimental conocida como el Pequeño Personaje, Control Data Corporation entregó el CDC 1604, uno de los primeros computadores basados en transistores y que fue de las máquinas más rápidas en el mercado. El Consejo de Administración estaba encantado con esta nueva máquina, y realizaron planes para una nueva serie de máquinas que estuvieran más adaptadas al uso comercial. Cray no estaba interesado en ese proyecto, y se puso como meta crear una nueva máquina, que fuera 50 veces más rápida que el CDC 1604.[/size]
[size=33]Durante esta etapa, el CDC y Cray no se pusieron de acuerdo en la dirección que la empresa debería tomar. Finalmente, Cray habló con William Norris, directivo del CDC y le dejó claro que si las cosas no cambiaban, él se marcharía de la empresa. Norris sabía lo importante que era Cray, así que le dio luz verde para montar un laboratorio donde él quisiera. Seymour Cray trabajó junto a Tim Thornton, el arquitecto del sistema y el “genio oculto” de la 6600.[/size]
[size=33]Las máquinas de la época, usaban una CPU que generalmente, iba más lenta que la memoria principal. Por ejemplo, un procesador podría tomar 15 ciclos para multiplicar dos números, mientras que cada acceso a la memoria sólo tomaba una o dos. Esto significó que hubo un tiempo considerable en que la memoria principal estaba ociosa. Fue ese el tiempo de inactividad que el 6600 explotaba. En lugar de tratar que la CPU se encargara de todas las tareas, la CPU de la 6600 sólo se encargaba de la aritmética y la unidad lógica. Esto dio lugar a una CPU más pequeña que podría funcionar a una velocidad de reloj más alta. Junto con las velocidades más rápidas de conmutación de los transistores de silicio, la nueva CPU de la 6600 era superior a las demás. La base de la CPU 6600 es lo que hoy se conoce como sistema RISC, que se basada en realizar operaciones sencillas de forma paralela, para dejar antes la memoria libre.[/size]
Procesador Central
[size=33]El Procesador Central del 6600 incluye 10 unidades funcionales paralelas, permitiendo múltiples instrucciones. En la actualidad, se conoce como un diseño superescalar, pero en aquellos tiempos era única. A diferencia de los diseños más modernos, las unidades funcionales aún no habían sido canalizadas. Dicha unidad se quedaba ocupada cuando se le emitía una instrucción y se mantenía ocupada hasta que la instrucción terminara. En el mejor de los casos, una instrucción podía ser emitida a una unidad funcional cada ciclo de reloj de 100 ns.[/size]Organización de la memoria
[size=33]Los programas de usuario se limitan a usar sólo una zona contigua de la memoria principal. La parte de la memoria de un programa que está en ejecución, es controlado por el RA (Dirección Relativa) y FL (longitud del campo). Menos los primeros CDC 6600, las máquinas podían ser configuradas con un almacenamiento opcional de extensión del núcleo (ECS). El ECS podía ser utilizado para una variedad de propósitos, incluyendo el guardar matrices de datos que eran demasiados grandes para la memoria principal, intercambio de archivos o la comunicación en un completo multi-ordenador central.[/size][size=33]Referencias[/size]
[Tienes que estar registrado y conectado para ver este vínculo]
Juan Jose Quiroga- Mensajes : 12
Puntos : 4
Fecha de inscripción : 14/02/2018
SUPERCOMPUTADORAS E INTELIGENCIA ARTIFICIAL
NVIDIA DGX-1, una supercomputadora con Inteligencia Artificial
Las supercomputadoras se usan actualmente para modelar, por ejemplo, los fenómenos climáticos, que retan las ideas de cómo se define el clima y las circunstancias atmosféricas razón por la cual se requiere de máquinas muy poderosas que hagan un enorme cantidad de cálculos.
De igual manera, éstas se usan para hacer inteligencia artificial, particularmente en redes neuronales profundas, las cuales funcionan mostrándole a la computadora una gran cantidad de ejemplos de algo para que el software pueda extrapolar resultados.
Sin embargo, las supercomputadoras son muy costosas. Hablamos de millones de dólares. Por ello, saber que se puede comprar una supercomputadora por unos 129 mil dólares suena como a una ganga.
NVIDIA ha desarrollado su supercomputadora DGX-1, la cual está diseñada particularmente para modelos de aprendizaje profundo y que es mucho más rápida que los sistemas que hoy en día se usan para estas tareas. La compañía llama a su sistema: “una supercomputadora de inteligencia artificial en una caja”.
El hardware de NVIDIA combina el software de aprendizaje con ocho de las unidades de procesamiento de los más importantes fabricantes de chips. Esto le permite entrenar sus modelos de manera más rápida pudiendo hacer más experimentos en menos tiempos, lo que podría facilitar los desarrollos en ciencias, salud y servicios financieros.
Desde hace unos años, los científicos han empezado a poner más unidades de procesamiento para poder acelerar el aprendizaje profundo, que es una técnica que usan las redes neuronales para emular las capacidades del cerebro humano. Pero los sistemas disponibles limitan las posibilidades y es aquí donde NVIDIA parece haber dado en el clavo con su nuevo hardware, que promete hacer de estos algoritmos de aprendizaje más poderosos y así correr modelos de aprendizaje profundo que en el pasado simplemente era imposible de hacer.
De acuerdo a los primeros clientes, la DGX-1 modela de tres a cuatro veces más rápido que en cualquier otro sistema en la actualidad.
DGX-1 parece ser una opción interesante en la investigación de inteligencia artificial, sobre todo ahora que se usan redes neuronales profundas para muchos temas. ¿Qué son las redes neuronales profundas?
El aprendizaje profundo, también conocido cono redes neuronales profundas, es un aspecto de la inteligencia artificial (AI) que se ocupa de emular el enfoque de aprendizaje que los seres humanos utilizan para obtener ciertos tipos de conocimiento. En su forma más simple, el aprendizaje profundo puede considerarse como una forma de automatizar el análisis predictivo[/url].
Mientras que los algoritmos tradicionales de aprendizaje automático son lineales, los algoritmos de aprendizaje profundo se apilan en una jerarquía de creciente complejidad y abstracción.
Ejemplo:
Imagine a un niño cuya primera palabra es "perro". El niño aprende lo que es (y lo que no es) un perro señalando objetos y diciendo la palabra "perro". El padre dice "Sí, eso es Perro" o "No, eso no es un perro". Mientras el niño continúa apuntando a los objetos, se vuelve más consciente de las características que poseen todos los perros. Lo que el niño hace, sin saberlo, es aclarar una abstracción compleja (el concepto de perro) construyendo una jerarquía en la que cada nivel de abstracción se crea con el conocimiento que se obtuvo de la capa precedente de la jerarquía.
Los programas informáticos que utilizan el aprendizaje profundo pasan por el mismo proceso. Cada algoritmo en la jerarquía aplica una transformación no lineal en su entrada y utiliza lo que aprende para crear un modelo estadístico como salida. Las iteraciones continúan hasta que la salida ha alcanzado un nivel de precisión aceptable. El número de capas de procesamiento a través de las cuales los datos deben pasar es lo que inspiró la etiqueta de profundidad ("deep").
En el aprendizaje tradicional de las máquinas, el proceso de aprendizaje es supervisado y el programador tiene que ser muy, muy específico al decirle a la computadora qué tipos de cosas debe buscar para decidir si una imagen contiene un perro o no contiene un perro. Este es un proceso laborioso llamado extracción de características y la tasa de éxito de la computadora depende totalmente de la capacidad del programador para definir con precisión un conjunto de características para "perro". La ventaja del aprendizaje profundo es que el programa construye el conjunto de características por sí mismo sin supervisión. Esto no es sólo más rápido, sino que por lo general es más preciso.
Inicialmente, el programa de computadora podría ser provisto de datos de entrenamiento, un conjunto de imágenes para las cuales un humano ha etiquetado cada imagen "perro" o "no perro". El programa utiliza la información que recibe de los datos de entrenamiento para crear un conjunto de características para el perro y construir un modelo predictivo. En este caso, el modelo que la computadora crea por primera vez podría predecir que cualquier cosa en una imagen que tenga cuatro patas y una cola debería estar etiquetada como "perro". Por supuesto, el programa no es consciente de las etiquetas "cuatro patas" o "cola", simplemente buscará patrones de píxeles en los datos digitales. Con cada iteración, el modelo predictivo que crea el equipo de cómputo se vuelve más complejo y más preciso.
Con el fin de lograr un nivel aceptable de precisión, los programas de aprendizaje profundo requieren acceso a inmensas cantidades de datos de entrenamiento y poder de procesamiento, ninguno de los cuales estaba fácilmente disponible para los programadores hasta la era de los grandes datos y la computación en nube. Debido a que la programación del aprendizaje profundo es capaz de crear modelos estadísticos complejos directamente a partir de su propia salida iterativa, es capaz de crear modelos predictivos precisos a partir de grandes cantidades de datos no etiquetados y no estructurados.
BIBLIOGAFÍA:
- UNOCERO, página Web, https://www.unocero.com/noticias/ciencia/nvidia-dgx-1-una-supercomputadora-con-inteligencia-artificial/
- TechTarget, página Web, http://searchdatacenter.techtarget.com/es/definicion/Aprendizaje-profundo-deep-learning
America_Rivas- Mensajes : 14
Puntos : 12
Fecha de inscripción : 14/02/2018
Temas similares
» Las supercomputadoras prefieren Linux
» Cual es la diferencia entre Linux y GNU/Linux
» sistema operativo de la Nintendo Switch
» LA BATALLA DE LOS DIOSES (WINDOWS VS MAC VS LINUX)
» ¿POR QUE NO ES POPULAR LINUX?
» Cual es la diferencia entre Linux y GNU/Linux
» sistema operativo de la Nintendo Switch
» LA BATALLA DE LOS DIOSES (WINDOWS VS MAC VS LINUX)
» ¿POR QUE NO ES POPULAR LINUX?
Página 1 de 1.
Permisos de este foro:
No puedes responder a temas en este foro.