SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
Historia de la computación 2 (117 b)
1. Universidad Nacional Autónoma
de México
Colegio de Ciencias y Humanidades Plantel Sur
Taller de Computo
Profesor: Rodrigo Armando Pérez Morga
Integrantes:
Sebastián Barroso Pérez
Nombre del equipo: Las Máquinas de turing
2. PERSONAJES PERIODO O AÑO APORTACIONES
1815 - 1864 Inventó el álgebra Boole, que
George Boole. marca fundamentos de la
aritmética computacional.
inventó la válvula termoiónica.
John Ambrose Fleming. 1849 – 1945 Estudió en el
UniversityCollege, en el Royal
College of Chemistry de
Londres y en la Universidad de
Cambridge
1903 - 1955
inventó el tubo de vacío o
válvula termoiónica usando el
efecto Edison que Thomas
Alva Edison había descubierto
John Vincent Atanasoff y en 1883, fue un pionero en la
Clifford Berry. utilización de la electricidad
para la iluminación y la
calefacción a gran escala y
contribuyó decisivamente al
desarrollo de telegrafía por
radio y la telefonía
1907 - 1980 sus sucesores lo llevaron a
crear el "SHORT CODE", el
primer lenguaje de
programación usado
actualmente en un ordenador
(precedido por el conceptual
John Mauchly y J. Presper Plankalkul de Zuse).
Eckert. Uno de los problemas que
solucionó fue conseguir que las
18.000 válvulas de las que
estaba compuesto el ENIAC
tuvieran una vida larga para
que así el ENIAC fuera viable.
1910 - 1995 Zuse diseñó la primera
computadora y su plan lógico
en 1936. A esta máquina le dio
el nombre de V1, aunque más
Konrad Zuse. tarde se lo cambiaría por Z1.
Desarrolló buena parte del
trabajo en el salón de su casa,
entre 1936 y 1938, puesto que
no disponía del dinero
3. suficiente para alquilar una
nave industrial.
1894 - 1964 elaboró los principios de la
cibernética, teoría
interdisciplinar centrada en el
estudio de las interrelaciones
entre máquina y ser humano y
Norbert Wiener. que en la actualidad se
encuadra dentro del ámbito
más general de la teoría de
control, el automatismo y la
programación de
computadoras.
1939-1944 Trabajo en una máquina
automática de calcular que
pudiese realizar cualquier
secuencia seleccionada de 5
Howard Aiken.
operaciones aritméticas (suma,
resta, multiplicación, división y
referencia a resultados
anteriores) sin intervención
humana
1947 el EDSAC fue el primer
ordenador en entrar en
Maurice Wilkes. funcionamiento que incorporó
los elementos y arquitectura de
los ordenadores actuales.
John Bardeen, Walter 1956 Premio Nobel de Física por su
búsqueda en semiconductores
Brattain y William Shockley.
y por el descubrimiento del
efecto transistor.
1958 Desarrolló el microchip.
Jack Kilby. Presento el primer circuito
integrado de aspecto algo
Seymour Cray. rudimentario, pero totalmente
operativo.Se trataba del
primer oscilador de
desplasamiento.
1984 Realizó 8 lenguajes de
programación además de
NiklausWirth. desarrollar algunos textos
fundamentales en la
enseñanza de la programación.
1969 inventor de la Tecnología de
Internet, habiendo creando los
principios básicos de la
conmutación de paquetes. Se
graduó en el Instituto
Tecnológico de Massachusetts
4. (MIT), justo una decada antes
Leonard Kleinrock. del nacimiento de Internet que
ocurrió cuando su cumputadora
en UCLA se convirtió en el
primer nodo de Internet
Los teóricos que dieron la estructura actual de la computadora
PERSONAJES PERIODO O AÑO APORTACIONES
dio su nombre a la arquitectura
de von Neumann, utilizada en
casi todos
loscomputadores.Creó el
campo de los autómatas
John Von Neumann. celulares sin computadores,
construyendo los primeros
ejemplos de
autómatasautorreplicables con
lápiz y papel.
1912 Los conceptos de
“algoritmo” y “máquina de
Alan Turing. computación” fueron
creados por el científico
inglés, siendo así el
precursor de la informática
moderna.
la Máquina de Turing era una
especie de calculadora de
capacidad infinita que
operaba basándose en una
serie de instrucciones
lógicas, bautizadas como
algoritmos,además fue capaz
de elaborar los procesos de
sus máquinas que
efectuaron cálculos
combinatorios mucho más
rápido que cualquier ser
humano
5. 2.La evolución de la computadora: Generaciones.
Presentar la información concisa en una tabla como la siguiente:
Generación Periodo Aportación(es) Nombre de una computadora o
dispositivo representativo
Primera 1941 hasta el año Construida con 18.000 1941ENIAC Primera computadora
1958 bulbos consumía varios digital electrónica en la historia. No
KW de potencia eléctricafue un modelo de producción, sino
y pesaba algunas una máquina experimental. Tampoco
toneladas. Era capaz de era programable en el sentido
efectuar cinco mil sumasactual. Se trataba de un enorme
por segundo aparato que ocupaba todo un sótano
en la universidad
Segunda 1960 Estaban construidas con mainframe IBM 1620
electrónica de basada en transistores,
transistores. originalmente con solo una cinta de
Se programaban con papel perforado, pero pronto se
lenguajes de alto nivel actualizó a tarjetas perforadas.
Probó ser una computadora
científica popular y se vendieron
aproximadamente 2.000 unidades.
Tercera A mediados de los se produjo la invención En 1965y, IBManunció el primer
años 60 del circuito integrado o grupo de máquinas construidas con
microchip circuitos integrados, que recibió el
invención del nombre de serie Edgar.
microprocesador, en
Intel
Menor consumo de
energía
Apreciable reducción del
espacio
Aumento de fiabilidad
Teleproceso
Multiprogramación
Renovación de
periféricos
Cuarta 1971 El primer "IBM PC"
microprocesador de 8 cual se convirtió en un tipo de
bits fue el Intel 8008 computadora ideal para uso
El tamaño reducido del "personal", de ahí que el término
6. microprocesador de chips "PC" se estandarizó y los clones que
hizo posible la creación sacaron posteriormente otras
de las computadoras empresas fueron llamados "PC y
personales (PC) compatibles"
Quinta a finales de la Su objetivo era el
década de 1970. desarrollo de una nueva
clase de computadoras
que utilizarían técnicas y
tecnologías de inteligencia
artificial tanto en el plano
del hardware como
delsoftware
PIM/i: 16
microprocesadores RISC
(tipo LIW), 320 MB de
memoria
PIM/k: 16
microprocesadores RISC,
1 GB de memoria
3. Algunos personajes y empresas actuales del cómputo
Personajes Empresa que En qué año Qué ofrece
crearon
Steven Wozniak y Apple Computer 1976 diseña y produce
equipos electrónicos
Steve Jobs.
y software
Gordon E. Moore y Fairchild 1957 y 1968 transistores y circuitos
Semiconductor y de integrados.
Robert Noyce.
Intel
Bill Gates y Paul Microsoft 1975 Microsoft Windows
Windows Phone
Allen. Microsoft Office
Microsoft Store
Microsoft Game Studios
Microsoft Visual Studio
Windows Live (antes
MSN)
Windows Store
Xbox
Xbox 360
7. Zune
Kinect
Microsoft Security
Essentials
Microsoft Forefront
Bing
MSN TV
Skype
Surface
Larry Page y Sergey Google 1996 Ofrece diversas
Brin aplicaciones como
YouTube,Picasa Web
Albums,Docs,etcéter
a
Jack Dorsey y Twitter 2007 Ofrece comunicación
Evan Williams social por medio de
la red, por medio de
140 caracteres
plasmados en un
texto plano.
4. Algunos temas actuales de la computación.
1. Red e internet
Internet es un conjunto de redes y equipos físicamente unidos mediante cables que conectan puntos
de todo el mundo. Estos cables se presentan en muchas formas, desde cables de red local a cables
telefónicos convencionales, digitales y canales de fibra óptica (que forman las «carreteras»
principales). Esta gigantesca Red se difumina en ocasiones porque los datos pueden transmitirse vía
satélite, o a través de servicios como la telefonía celular, o porque a veces no se sabe muy bien a
dónde está conectada.
En Internet, las comunicaciones concretas se establecen entre dos puntos: uno es el ordenador
personal desde el que uno accede y el otro es cualquiera de los Servidores que hay en la Red y
facilitan información.
Uno de los fundamentos de Internet es el TCP/IP, un protocolo de transmisión que asigna a cada
máquina que se conecta un número específico, llamado «número IP» (que actúa a modo de «número
teléfono único») como por ejemplo 80.123.234.111.
El protocolo TCP/IP sirve para establecer una comunicación entre dos
puntos remotos mediante el envío de información en paquetes.
8. Internet se inició en los Estados Unidos. A finales de los años 60, la ARPA (Agencia de Proyectos de
Investigación Avanzados) del Departamento de Defensa definió el protocolo TCP/IP con intención
de facilitar la conexión de diversos tipos de ordenadores, principalmente para temas de
investigación. Ahora el TCP/IP sirve para garantizar la transmisión de los paquetes de información
entre lugares remotos, siguiendo cualquier ruta disponible.
Poco a poco, todos los fabricantes de ordenadores personales y redes incorporaron el TCP/IP en sus
sistemas operativos, de modo que en la actualidad cualquier equipo está listo para conectarse a
Internet.
Internet une muchas redes, incluyendo como más importantes la que proporciona acceso a los grupos
de noticias (Usenet ), que data de 1979 y (conceptualmente) la todavía más conocida World Wide
Web , desde principios de los 90.
En conclusión. Internet es el mayor conjunto que existe de información, personas, ordenadores y
software funcionando de forma cooperativa, publicando y organizando información, e interactuando
a nivel global.
2. Software libre
* Software libre : Es la denominación del software que respeta la libertad de los usuarios sobre su
producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado, y
redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la
libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y
distribuirlo modificado.El software libre suele estar disponible gratuitamente, o al precio de costo
de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no
hay que asociar software libre a "software gratuito" .
Proyecto GNU:
El proyecto GNU fue iniciado por Richard Stallman con el objetivo de crear un sistema operativo
completamente libre: el sistema GNU.
UNIX es un Sistema Operativono libre muy popular, porque está basado en una arquitectura que ha
demostrado ser técnicamente estable. El sistema GNU fue diseñado para ser totalmente compatible
con UNIX. El hecho de ser compatible con la arquitectura de UNIX implica que GNU esté compuesto
de pequeñas piezas individuales de software, muchas de las cuales ya estaban disponibles, como el
sistema de edición de textosTeX y el sistema gráfico X Window, que pudieron ser adaptados y
reutilizados; otros en cambio tuvieron que ser reescritos.
Sistema Operativo Linux
LINUX (o GNU/LINUX, más correctamente) es un Sistema Operativo como MacOS, DOS o
Windows. Es decir, Linux es el software necesario para que tu ordenador te permita utilizar
programas como: editores de texto, juegos, navegadores de Internet, etc. Linux puede usarse
9. mediante un interfaz gráfico al igual que Windows o MacOS, pero también puede usarse mediante
línea de comandos como DOS.
Linux tiene su origen en Unix. Éste apareció en los años sesenta, desarrollado por los investigadores
Dennis Ritchie y Ken Thompson, de los Laboratorios Telefónicos Bell.
3.Industria del cómputo:
Microprocesador
Un microprocesador, también conocido como procesador, micro, chip o microchip, es un
circuito lógico que responde y procesa las operaciones lógicas y aritméticas que hacen
funcionar a nuestras computadoras. En definitiva es el corazón de nuestras computadoras.
Pero un procesador no actúa por propia iniciativa, recibe constantemente órdenes de
múltiples procedencias. Cuando encendemos nuestra computadora, lo primero que hace el
micro es cumplir con las instrucciones de la BIOS que forma parte de la memoria de la
computadora. Una vez funcionando, además de la BIOS, será el sistema operativo y los
programas instalados los que seguirán haciéndose obedecer por el microprocesador.
Pese a que los microprocesadores siempre nos hacen pensar en ordenadores, lo cierto es
que están disponibles en multitud de 'cacharros' que nos rodean habitualmente, como
cámaras de fotografía o vídeo, coches, teléfonos móviles... No obstante, es cierto que
aquellos que se emplean en las computadoras son los más potentes y complejos.
Microprocesadores de Intel.
1. MMX.Fue desarrollado a partir de un set introducido en el Intel i860.
Ha sido soportado por la mayoría de fabricantes de microprocesadores
x86 desde entonces.MMX agregó 8 nuevos registros a la arquitectura,
conocidos como MM0 al MM7 (en adelante llamados MMn). En realidad,
estos nuevos registros son meros alias de los registros de la pila de la
FPU x87. Por ello cualquier cosa que se haga con la pila de la FPU afecta
a los registros MMX. A diferencia de la pila de coma flotante, los registros MMn son fijos en vez de
relativos, por lo que pueden accederse aleatoriamente.
2. Intel HD Graphics. es una serie de procesadores gráficos integrados de
Intel elaborados dentro de procesadores de computadores personales.
10. 3.HyperThreading (HT Technology ). Permite a los programas preparados para ejecutar
múltiples hilos (multi-threaded) procesarlos en paralelo dentro de un único procesador,
incrementando el uso de las unidades de ejecución del procesador.Estatecnología consiste
en simular dos procesadores lógicos dentro de un único procesador físico. El resultado es
una mejoría en el rendimiento del procesador, puesto que al simular dos procesadores se
pueden aprovechar mejor las unidades de cálculo manteniéndolas ocupadas durante un
porcentaje mayor de tiempo. Esto conlleva una mejora en la velocidad de las aplicaciones
que según Intel es aproximadamente de un 30%.
4.intelItanium. fue el primer microprocesador de la arquitectura Intel
Itanium.La arquitectura se basa en un explícito paralelismo a nivel de
instrucción, con el compilador tomando decisiones sobre qué
instrucciones deben ejecutarse en paralelo. Este
acercamiento permite que el procesador ejecute hasta seis
instrucciones por ciclo de reloj. A diferencia de otras
arquitecturas super calares, Itanium no precisa de hardware
elaborado para seguir la pista de las dependencias de las
instrucciones durante la ejecución paralela.
Microprocesadores de AMD
1.AMDSeprom. es una categoría de microprocesador de bajo costo con arquitecturaX86
fabricado por AMD.Las primeras versiones fueron lanzadas al mercado en agosto de 2004.
Las versiones iniciales de este procesador estaban basadas en el núcleo
Thoroughbred/Thorton del Athlon XP, con una caché de segundo nivel de 256 KiB y un bus
de 333 MHz (FSB 166 MHz). Su índice de prestaciones relativas
(PR) se situaba entre 2400+ y 2800+ dependiendo del modelo,
aunque el índice no es calculado de la misma forma que para los
Athlon XP, siendo los Sempron algo más lentos a mismo índice de
prestaciones relativas.
11. 2.AMDAthlon . Es el nombre que recibe una gama de microprocesadores
compatibles con la arquitecturax86, diseñados por AMD.El Athlon
original, Athlon Classic, fue el primer procesador x86 de séptima
generación y en un principio mantuvo su liderazgo de rendimiento sobre
los microprocesadores de Intel. AMD ha continuado usando el nombre
Athlon para sus procesadores de octava generación Athlon 64.
3.AMDAthlon II. Es la nueva familia de procesadores
de AMD incluyendo versiones de 2 a 4 núcleos. Se ha
desarrollado para satisfacer el mercado de prestaciones intermedias
complementando la línea del PhenomII.La familia Athlon II esta basada en
la arquitectura K10, sin embargo a diferencia de la familia del Phenom II,
no posee cache de tercer nivel L3. En estos procesadores, se ha intentado
cubrir esa diferencia, aumentando el nivel de la cache de segundo nivel de
512 KB a 1 MB por cada núcleo en los procesadores de dos núcleos. Ofrece
compatibilidad con las instrucciones SSE, SSE2, SSE3, SSE4a y MMX para
la seguridad y aplicaciones multimedia.
4. AMD Am5x86. Es un procesador compatible x86 presentado en 1995
por Advanced Micro Devices destinado a ser utilizado en ordenadores
basados en un 486.Es un procesador 486 "estándar" con un multiplicador
interno a 4x, arquitectura de 0'35 micras y una caché L1 de 16KB,
permitiéndole funcionar a 133 MHz en sistemas para procesadores 486 DX2
o DX4 sin multiplicador. La combinación de una mejor frecuencia de reloj y de la memoria caché de
tipo write-back permitió al 5x86 igualar e incluso sobrepasar ligeramente un procesador Pentium a
75 MHz.
Aplicaciones de cómputo.
1.ciencia.
En las últimas décadas, las computadoras se han convertido en
algo de uso natural en la vida de todos.
De la misma forma en que las computadoras han pasado a
ser parte de nuestra vida cotidiana, también se han convertido
en parte integral de la ciencia moderna. Son esenciales para
12. ayudar a los científicos a entender el mundo a nuestro alrededor. Las computadoras han cambiado a la
ciencia de modo tal que los científicos ya no se ven obligados tan solo a la investigación basada en
experimentos o teórica. Ahora los científicos pueden incorporar resultados y datos en una computadora y
la computadora, mediante el uso de las matemáticas y siguiendo las leyes físicas, pueden recrear un
mundo físico virtual en su pantalla.
2.En la astronomía.
En los institutos de investigación las imágenes astronómicas son procesadas y cuidadosamente
analizadas con otras computadoras, normalmente con mayor velocidad y capacidad que las necesarias
para controlar telescopios y grabar imágenes. El análisis de datos e imágenes frecuentemente
requiere el estudiar centenares de ellas simultáneamente. Pero el uso de computadoras en el trabajo
cotidiano de un astrónomo no se queda ahí: el correo electrónico es fundamental para tener una
rápida comunicación que permite y agiliza colaboraciones internacionales y permite estar al tanto de
los últimos hallazgos. Incluso la redacción de artículos de
investigación y divulgación científica (como este) se hacen casi
exclusivamente con computadoras. Una buena parte de las
revistas de investigación tienen parte de su información en
Internet, al punto que recientemente apareció una revista
llamada "New Astronomy" que solo aparece en la red y no en
forma impresa.
3. La industria .
La aplicación de la computadora en la industria, es uno de los campos donde más se aprecia la
evolución.
La primera producción de piezas mecánicas intercambiables data de fines de siglo XVIII cuando Eli
Whithney debió fabricar diez mil fusibles para el gobierno de los Estados Unidos. Hasta entonces
toda la producción mecánica estaba en manos de expertos artesanos que fabricaban, uno por uno,
todos los componentes de un determinado mecanismo, y los en samblaban mediante pacientes
trabajos de ajuste.
La industria está encontrando que en la actualidad la integración de todas las
áreas de la empresa es su opción más viable estratégicamente hablando para
incrementar su productividad y crear una empresa más competitiva
Este proceso de integración se basa en el modelo de manufactura integrada
por computadora (CIM),
John W. Bernard lo define como "la integración de las computadoras digitales
en todos los aspectos del proceso de manufacturado'.' Otra definición afirma
que
se trata de un sistema complejo, de múltiples capas diseñado con el propósito
de minimizar los gastos y crear riqueza en todos los aspectos. También se
menciona que tiene que ver con proporcionar asistencia computarizada,
13. automatizar, controlar y elevar el nivel de integración en todos los niveles de la
manufactura.
4. Vehículos
La computadora (ECU) del automóvil es muy similar en funciones a la computadora del hogar,
diferenciándose ambas en que, mientras la del hogar es capaz de procesar palabras, conectarse a
Internet, etc. la del automóvil esta especialmente creada para hacer más eficiente al mismo.
Estas computadoras tienen innumerables componentes electrónicos en su interior entre los que
podemos mencionar a los microprocesadores, en gran número, montados en una placa impresa con
cobre, que le permiten realizar cálculos de los más variados
tendientes a mejorar la eficiencia del automóvil y generalmente, a
nadie le importa como lo hace a excepción de los mecánicos
especializados.
A medida que la tecnología avanza, estos micros se hacen cada vez
más comunes y avanzados lo que permite el manejo de mucha
información proveniente de los sensores.Las capacidades de las
computadoras de vehículos varían mucho en cuanto a sus
prestaciones y modelos de éstos.
Es así que, en algunos automóviles las ECU pueden controlar únicamente la inyección de combustible
y el sistema de ignición, mientras que en otros, controlan además el tablero de instrumentos, la
temperatura interior, el sistema de frenos, etc.
5. Medicina.
Este trabajo hace una valoración de la integración que han experimentado la Medicina y la
Computación en los últimos años, con el desarrollo de las Nuevas Tecnologías de la Información
(NTI) y los problemas, desde el punto de vista ético que puede traer en la relación médico-paciente,
al tratar de sustituir al hombre por la máquina. Por otra parte valora la necesaria integración y las
contradicciones que surgen, principalmente en los países subdesarrollados, donde la introducción de
modernas tecnologías encarecen los servicios médicos y una parte importante de la población no
tiene acceso a esa tecnología al no poder pagar esos servicios.
Ciberdelitos.
Un ciberdelito puede definirse como cualquier actividad delictiva en la que se
usan como herramienta ordenadores y se realiza a través de las redes
14. electrónicas mundiales. En muchos casos, nuestros propios hijos e hijas pueden formar parte de
ellos. Pueden ser víctimas o rebasar la ley.
Los ciberdelitos son exactamente los mismos que los delitos que se establecen en el Código Penal. La
única diferencia es que se utilizan las TIC para cometerlos. Algunos de ellos pueden ser delitos
contra la intimidad, estafas, daños por acceder a cuentas personales ajenas
o distribución de pornografía infantil.
Hackers(.Crackers)
Es una persona que pertenece a una de estas comunidades o subculturas
distintas pero no completamente independientes.Gente apasionada por la
seguridad informática. Esto concierne principalmente a entradas remotas no
autorizadas por medio de redes de comunicación comoInternet . Pero también
incluye a aquellos que depuran y arreglan errores en los sistemas y a los de
moral ambigua como son los "Grey hats".
Malware.
también llamado badware, código maligno, software malicioso o software
malintencionado, es un tipo de software que tiene como objetivo infiltrarse o
dañar una computadora sin el consentimiento de su
propietario.Malware no es lo mismo que software
defectuoso; este último contiene bugs peligrosos, pero
no de forma intencionada.El software se considera
malware en función de los efectos que, pensados por el creador,
provoque en un computador. El término malware incluye virus,
gusanos,troyanos, la mayor parte de los rootkits, scareware, spyware,
adware intrusivo, crimeware y otros softwares maliciosos e indeseables
1. Inteligencia artificial.
Se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo.Para explicar la
definición anterior, entiéndase a un Agente inteligente que permite pensar,
evaluar y actuar conforme a ciertos principios de optimización y consistencia,
para satisfacer algún objetivo o finalidad. De acuerdo al concepto previo,
racionalidad es más general y por ello más adecuado que inteligencia para
definir la naturaleza del objetivo de esta disciplina.
Con lo cual , y de manera más específica la inteligencia artificial es la
disciplina que se encarga de construir procesos que al ser ejecutados sobre
una arquitectura física producen acciones o resultados que maximizan una
medida de rendimiento determinada, basándose en la secuencia de entradas
percibidas y en el conocimiento almacenado en tal arquitectura.
15. Existen distintos tipos de conocimiento y medios de representación del conocimiento, el cual puede ser
cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de
aprendizaje.
2. Realidad Virtual.
Es una ciencia basada en el empleo de ordenadores y otros dispositivos, cuyo fin es producir una
apariencia de realidad que permita al usuario tener la sensación de estar presente en ella. Se consigue
mediante la generación por ordenador de un conjunto de imágenes que son contempladas por el usuario
a través de un casco provisto de un visor especial. Algunos equipos se completan con trajes y guantes
equipados con sensores diseñados para simular la percepción de diferentes estímulos, que intensifican
la sensación de realidad
3.Supercómputo.
Es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio y
que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador
están siendo reemplazados por Computadora de Alto Desempeño y Ambiente de Cómputo de Alto
Desempeño, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí
para aumentar su potencia de trabajo y desempeño.los
superordenadores más rápidos funcionaban en
aproximadamente más de 200 teraflops (que en la jerga
de la computación significa que realiza trillones de
operaciones por segundo). La lista de Supercomputadora
se encuentra en la lista TOP500.
4.Cómputo autónomo.
El cómputo autónomo es un modelo auto administrado
de cómputo, nombrado y modelado con base en la autonomía del sistema nervioso del cuerpo
humano. Un sistema de cómputo autónomo controlaría el funcionamiento de aplicaciones y
sistemas sin necesidad de intervención de usuario, de la misma manera que el sistema
nervioso regula los sistemas del cuerpo sin que haya intervención consciente del individuo.
El objetivo del cómputo autónomo es crear
sistemas que se corran a sí mismos, capaces de
un alto nivel de funcionamiento mientras se
mantiene la complejidad del sistema invisible
para el usuario. Muchos Líderes de industria,
incluyendo IBM, HP, Sun y Microsoft están
investigando varios componentes del cómputo
autónomo.