jueves, 9 de junio de 2011

Edwin Powell Hubble (Marshfield, Misuri, 20 de noviembre de 1889 - San Marino, California, 28 de septiembre de 1953) fue uno de los más importantes astrónomos estadounidenses del siglo XX, famoso principalmente por haber demostrado la expansión del universo midiendo el desplazamiento al rojo de galaxias distantes. Hubble es considerado el padre de la cosmología observacional aunque su influencia en astronomía y astrofísica toca muchos otros campos.
Primeros años
Edwin Hubble nació en Marshfield (Misuri) el 20 de noviembre de 1889 y muere en San Marino, California el 28 de septiembre de 1953. Era hijo de un abogado y él mismo estaba destinado a ejercer la carrera legal. Cursó estudios en la Universidad de Chicago, centrándose en matemáticas y astronomía. Se licenció en 1911.

[editar] Hubble en el Monte Wilson

Retornó al campo de la astronomía al incorporarse al Observatorio Yerkes de la Universidad de Chicago, donde obtuvo el doctorado en física en 1917. Al volver de su servicio en la primera Guerra mundial, en 1919, le fue ofrecido un puesto en el nuevo observatorio del monte Wilson, donde tenía acceso a un telescopio de 254 centímetros, por ese entonces, el más potente del mundo, junto a Milton Humason.
Al principio de su carrera en el observatorio, su atención fue atraída por las nebulosas. Por entonces, la forma y el tamaño de las galaxias se conocían razonablemente bien, pero no se sabía qué existía más allá de sus límites, si es que existía algo. Al principio del Siglo XX, la palabra galaxia se consideraba intercambiable con Universo.
Estaba claro que algunas nebulosas se encontraban en la galaxia y que, básicamente, eran gas iluminado por estrellas en su interior. En 1924 Hubble tuvo éxito al distinguir estrellas en la Nebulosa de Andrómeda. Usando la ley del perio-luminosidad de Leavitt, pudo llegar a estimar su distancia, que calculó en 800.000 años luz, ocho veces más lejos que las estrellas más remotas conocidas (más tarde resultaría infravalorada). En los años siguientes, repitió su éxito con nebulosa tras nebulosa dejando claro que la galaxia era una entre toda una hueste de "micro universos aislados".

[editar] La expansión del Universo

Aunque Hubble "sólo" hubiera transformado la imagen del universo, hizo más. En medio siglo transcurrido desde que Huggins registró el corrimiento hacia el rojo del espectro de Sirio, había registrado múltiples corrimientos al rojo y al azul de varios objetos del universo.
En 1929, Hubble publicó un análisis de la velocidad radial de las nebulosas cuya distancia había calculado; se trataba de sus velocidades respecto a la tierra. Lo que estableció fue que, aunque algunas nebulosas extragalácticas tenían espectros que indicaban que se movían hacia la Tierra, la gran mayoría, mostraba corrimientos hacia el rojo que solo podían explicarse asumiendo que se alejaban. Más sorprendente fue su descubrimiento de que existía una relación directa entre la distancia de una nebulosa y su velocidad de retroceso. Viera Kaplan y Daniel Heinrich dicen que si el continente no se expande no se podría expandir el contenido (Teoría fundamental de las galaxias).
Hubble concluyó que la única explicación consistente con los corrimientos hacia el rojo registrados, era que, dejando aparte a un "grupo local" de galaxias cercanas, todas las nebulosas extragalácticas se estaban alejando y que, cuanto más lejos se encontraban, más rápidamente se alejaban. Esto sólo tenía sentido si el propio universo, incluido el espacio entre galaxias, se estaba expandiendo. Junto a Milton Humason postuló la Ley de Hubble acerca de la expansión del universo.
George Hale, el fundador y director del Observatorio Monte Wilson en las cercanías de Pasadena (California), dependiente del Instituto Carnegie, le ofreció un puesto de trabajo en el que permaneció hasta su muerte, acaecida en 1953 al sufrir un accidente cerebrovascular. Antes de su muerte, Hubble fue el primero en utilizar el telescopio Hale del Observatorio Palomar 

2.EN QUE AÑO EN QUE TRANSBORDADOR Y BAJO QUE TRIPULACION  FUE PUESTO EN ORBITA EL SATELITE ESPACIAL HUBBLER?
El Telescopio espacial Hubble (HST por sus siglas en inglés) es un telescopio que orbita en el exterior de la atmósfera, en órbita circular alrededor de la Tierra a 593 km sobre el nivel del mar, con un período orbital entre 96 y 97 min. Denominado de esa forma en honor del astrónomo Edwin Hubble, fue puesto en órbita el 24 de abril de 1990 en la misión STS-31 y como un proyecto conjunto de la NASA y de la Agencia Espacial Europea inaugurando el programa de Grandes Observatorios. El telescopio puede obtener imágenes con una resolución óptica mayor de 0,1 segundos de arco. La ventaja de disponer de un telescopio más allá de la atmósfera radica, principalmente, en que de esta manera se pueden eliminar los efectos de la turbulencia atmosférica. Además, la atmósfera absorbe fuertemente la radiación electromagnética en ciertas longitudes de onda, especialmente en el infrarrojo, disminuyendo la calidad de las imágenes e imposibilitando la adquisición de espectros en ciertas bandas caracterizadas por la absorción de la atmósfera terrestre. Los telescopios terrestres se ven también afectados por factores meteorológicos (presencia de nubes) y la contaminación lumínica ocasionada por los grandes asentamientos urbanos, lo que reduce las posibilidades de ubicación de telescopios terrestres.
El sistema de Transbordador Espacial de la NASA (en inglés: Space Transport System, STS o Space Shuttle) forma parte del programa del transbordador espacial, siendo la primera nave espacial reutilizable y la primera capaz de poner satélites en órbita (aunque una órbita baja), y traerlos de vuelta a la superficie. Cada transbordador tiene una vida útil proyectada de 100 lanzamientos. Fue diseñado para ser el sistema bandera de exploración espacial tripulada de EE.UU. durante los años 80, y para hacer realidad el sueño de construir y mantener una estación espacial. La flota de transbordadores espaciales, junto con los vehículos soviéticos, se ha encargado de elevar los distintos módulos de la Estación Espacial Internacional, así como de la provisión regular de suministros.
Participaron 7 tripulantes con el fin de añadir y reparar los daños que fueron ocasionados en este gran satelite.
Las misiones de servicio
Ya desde su diseño, el HST se concibió como un telescopio espacial que podría ser visitado por el transbordador espacial. Las razones para esa capacidad son:
  • Poder reparar elementos estropeados. El espacio es un entorno agresivo para un satélite debido al efecto sobre los elementos electrónicos de las partículas elementales cargadas que se desplazan a gran velocidad y a la posibilidad de impactos con micropartículas. Por ese motivo, estaba claro desde el principio que algunas partes del HST fallarían en un plazo no muy largo.
  • Instalar nuevos instrumentos, ya sean instrumentos científicos u otras partes del telescopio. Dada la rápida evolución de la tecnología, los detectores u ordenadores (por poner dos ejemplos) disponibles durante la larga vida del telescopio son superiores a los que originalmente se instalaron antes de su lanzamiento. Las visitas del transbordador permite actualizar esos elementos y así mejorar la capacidad del HST.
  • Mantener la órbita del telescopio. Debido al rozamiento con la atmósfera (muy tenue pero no inexistente a esa altura), el telescopio es frenado muy lentamente y, como consecuencia de la atracción gravitatoria terrestre, pierde altura. Cada vez que el HST es visitado, el transbordador espacial ha de empujarlo a una órbita ligeramente más alta.

         LA PRIMERA MISION DE SERVICIO (SM1)
La primera misión de servicio se llevó a cabo con el transbordador Endeavour (STS-61) en diciembre de 1993 y tuvo una duración de diez días. El plan de la SM1 estuvo fuertemente condicionado por la aberración esférica detectada tres años antes en el espejo primario. Las dos reparaciones más importantes fueron la sustitución del Fotómetro de Alta Velocidad (HSP, por sus iniciales en inglés) por la óptica correctora COSTAR y la instalación de la Cámara Planetaria y de Gran Angular 2 (WFPC2) en el lugar de la cámara original (WFPC). El propósito de COSTAR era el conseguir el enfoque correcto de los otros tres instrumentos axiles originales del telescopio (la Cámara de Objetos Débiles o FOC, el Espectrógrafo de Objetos Débiles o FOS y el Espectrógrafo Goddard de Alta Resolución o GHRS). La WFPC2 ya incorporaba su propia corrección del efecto de la aberración esférica del espejo primario. Además, se instalaron dos nuevos paneles solares, cuatro giroscopios, dos unidades eléctricas de control, dos magnetómetros y un nuevo ordenador de a bordo. Por último, la órbita del HST fue elevada por primera vez desde su lanzamiento.
La SM1 estuvo rodeada de gran expectación. Por ejemplo, la revista New Scientist declaraba antes de su ejecución que constituía “la reparación más ambiciosa de la historia de la aeronáutica”. El éxito de la misión fue total hasta el punto que el jefe científico del proyecto, Edward J. Weiler, declaró que "el Hubble ha quedado reparado a un grado que nunca hubiéramos soñado”.

[editar] La segunda misión de servicio (SM2)

La segunda misión de servicio se llevó a cabo con el transbordador Discovery (STS-82) en febrero de 1997. En ella se reemplazaron dos instrumentos preexistentes (el GHRS y el FOS) por otros dos nuevos, el Espectrógrafo de Imágenes del Telescopio Espacial (STIS) y la Cámara y Espectrómetro Multi-Objeto del Infrarrojo Cercano (NICMOS), se sustituyó un sistema de almacenamiento de datos en cinta por uno de estado sólido, se reparó el aislamiento térmico y se elevó la órbita del telescopio. El sistema de refrigeración de NICMOS no funcionó de la manera especificada y eso hizo que su vida útil se redujera de 4,5 a 2 años.

[editar] La tercera misión de servicio (SM3A)

La tercera misión de servicio se llevó a cabo con el transbordador Discovery (STS-103) en diciembre de 1999.

[editar] La cuarta misión de servicio (SM3B)

La cuarta misión de servicio se llevó a cabo con el transbordador Columbia (STS-109) en marzo de 2002.

[editar] La quinta misión de servicio (SM4)

Hubble 20th Carina Nebula xo.ogv

Hubble 20 años. Nebulosa Carina.
La quinta misión de servicio se llevó a cabo con el transbordador Atlantis (STS-125) en mayo de 2009. Ésta fue la última misión de servicio y duró 11 días, participaron en ella 7 tripulantes con el objetivo de reparar y añadir nuevos instrumentos al telescopio.
La quinta misión de mantenimiento, prevista para 2006, se canceló inicialmente pero posteriormente se reinstauró. Con ella, está previsto que el Hubble alcanzará el final de su vida útil hasta mediados de la década de 2010. La fecha exacta del fin del Hubble es incierta, ya que depende de la vida de los giróscopos, baterías y el frenado atmosférico (corregible). La NASA prevé lanzar hacia el 2012 un telescopio de nueva generación (el James Webb) para observar en el infrarrojo cercano y medio. El Telescopio Espacial James Webb no es un sustituto del Hubble sino un complemento, ya que observa en un rango distinto del espectro electromagnético.
El 14 de junio de 2006 la cámara avanzada para sondeos (siglas en inglés, ACS), uno de los instrumentos considerados fundamentales en el telescopio, dejó de funcionar. La causa fue un excesivo voltaje en el circuito de alimentación principal que fue subsanada con la activación del sistema de respaldo. El 30 de junio la ACS volvió a funcionar correctamente. El 31 de octubre de 2006, el Administrador de NASA anunció la aprobación para una misión de mantenimiento. Esta misión de 11 días de duración tendrá lugar tentativamente en el otoño de 2008 y entraña la instalación de nuevas baterías, de la tercera cámara de gran angular (WFC3) y de un nuevo espectrógrafo (COS), así como la reparación de los giróscopos y posiblemente de STIS.
El 27 de enero de 2007, la ACS dejó de funcionar de nuevo debido a un cortocircuito en la misma. En principio, se pensó que el daño era irreversible para todos sus detectores. No obstante, más tarde se consiguió revivir uno de ellos (la SBC) y en la actualidad se está analizando si es posible reparar o no los otros dos (el WFC y el HRC) en la próxima misión de reparación. En la decisión final influirán los nuevos instrumentos que se instalarán en dicha misión (la WFC3 y el COS) y si es preferible reparar la ACS o STIS (existe un tiempo máximo que los astronautas pueden pasar fuera de la nave y la reparación de un instrumento lleva varias horas como mínimo). Mientras tanto, el Hubble utilizará los demás instrumentos que están disponibles para investigaciones.


ENSAYO

En mayo de 2009, la tripulación del transbordador espacial Atlantis se le asignó la misión de hacer la reparación vital y mejoras al telescopio espacial Hubble, el primer observatorio-base en el espacio, del mundo, a 350 millas (563,2 kilómetros) por encima de la Tierra. A bordo, del transbordador, se instaló una cámara IMAX 3-D, que fue manejada por los astronautas. Con la que capturaron las secuencias de los cinco paseos espaciales requeridos para hacer la reparación, así como las imágenes de primer plano del Hubble. El documental combina escenas IMAX, con imágenes tomadas por el telescopio durante los casi 20 años que ha sido nuestra ventana en el espacio. Narrada por Leonardo DiCaprio, Hubble 3-D reúne, un equipo liderado por la productora y directora Tony Myers. El director de fotografía fue James Neihouse, Graeme Ferguson, co-fundador de IMAX, es el productor ejecutivo, y Judy Carroll, es la productora asociada. La película es un viaje hacía lugares, donde los humanos no nos hemos aventurado y posiblemente nunca lo haremos.

domingo, 6 de febrero de 2011

TALLER DE INFORMATICA

TALLER
Defina con tus propias palabras los siguientes conceptos:
a)    Hackers: raptador de información ilegal. Son aquellos que se encargan de crear virus para los computadores, se interesan en contactar y captar información de empresas ó personas, vacían cuentas en los bancos.
b)   Crackers: a diferencia del Hackers, es una persona que viola la seguridad de un sistema informático para beneficio personal ó para hacer daño.
c)    Delitos informáticos: son crímenes electrónicos que se realizan por medio de internet y se encargan de destruir y dañar ordenadores, medios electrónicos, redes de internet.
Según tu propio criterio cuales crees que son los delitos informáticos más cometidos por ti:
Sinceramente, nunca he llegado a cometer delitos informáticos, pero sé que los más cometidos hoy en Colombia son:
-          Fraude del que se hace objeto a los cajeros
-          Virus
-          Gusanos
-          Bomba lógica ó cronológica
-          Sabotaje informático
-          Piratas informáticos ó hacker
-          Acceso no autorizado a sistemas ó servicios
-          Reproducción no autorizada de programas informáticos de protección legal
-          Manipulación de datos de entrada ó salida
-          Manipulación de programas
-          Fraude efectuado por manipulación informática
-          Robo de bancos
-          Pornografía infantil
-          Chantajes
-          Mal uso de artefactos
-          Daños en la información
-          Pedofilia en internet
-          Violación de los derechos de autor e información confidencial
Investiga los siguientes conceptos:
1.    Hackers:
En informática, un hacker es una persona que pertenece a una de estas comunidades o subculturas distintas pero no completamente independientes:
  • Gente apasionada por la seguridad informática. Esto concierne principalmente a entradas remotas no autorizadas por medio de redes de comunicación como Internet ("Black hats"). Pero también incluye a aquellos que depuran y arreglan errores en los sistemas ("White hats") y a los de moral ambigua como son los "Grey hats".
En la actualidad se usa de forma corriente para referirse mayormente a los criminales informáticos, debido a su utilización masiva por parte de los medios de comunicación desde la década de 1980. A los criminales se le pueden sumar los llamados "script kiddies", gente que invade computadoras, usando programas escritos por otros, y que tiene muy poco conocimiento sobre como funcionan. Este uso parcialmente incorrecto se ha vuelto tan predominante que, en general, un gran segmento de la población no es consciente de que existen diferentes significados.
Mientras que los hackers aficionados reconocen los tres tipos de hackers y los hackers de la seguridad informática aceptan todos los usos del término, los hackers del software libre consideran la referencia a intrusión informática como un uso incorrecto de la palabra, y se refieren a los que rompen los sistemas de seguridad como "crackers" (analogía de "safecracker", que en español se traduce como "un ladrón de cajas fuertes").
2.    Crackers:
El término cracker (del inglés crack, romper) tiene varias acepciones, entre las que podemos observar las siguientes:
  • Es una persona que mediante ingeniería inversa realiza: seriales, keygens y cracks, los cuales sirven para modificar el comportamiento o ampliar la funcionalidad del software o hardware original al que se aplican, sin que en absoluto pretenda ser dañino para el usuario del mismo.
  • Es cualquier persona que viola la seguridad de un sistema informático de forma similar a como lo haría un hacker, sólo que a diferencia de este último, el cracker realiza la intrusión con fines de beneficio personal o para hacer daño.
El término deriva de la expresión "criminal hacker", y fue creado alrededor de 1985 por contraposición al término hacker, en defensa de éstos últimos por el uso incorrecto del término. Se considera que la actividad realizada por esta clase de cracker es dañina e ilegal.
Por ello los crackers son criticados por la mayoría de hackers, por el desprestigio que les supone ante la opinión pública y las empresas, son aquellos que utilizan sus conocimientos técnicos para perturbar procesos informáticos (Haffner y Markoff, 1995). Pueden considerarse un subgrupo marginal de la comunidad de hackers.
En ocasiones el cracking es la única manera de realizar cambios sobre software para el que su fabricante no presta soporte, especialmente cuando lo que se quiere es, o corregir defectos, o exportar datos a nuevas aplicaciones, en estos casos (sólo en estos casos) en la mayoría de legislaciones no se considera el cracking como actividad ilegal.
3.    Delitos informáticos:
Crimen genérico o crimen electrónico, que agobia con operaciones ilícitas realizadas por medio de Internet o que tienen como objetivo destruir y dañar ordenadores, medios electrónicos y redes de Internet. Sin embargo, las categorías que definen un delito informático son aún mayores y complejas y pueden incluir delitos tradicionales como el fraude, el robo, chantaje, falsificación y la malversación de caudales públicos en los cuales ordenadores y redes han sido utilizados. Con el desarrollo de la programación y de Internet, los delitos informáticos se han vuelto más frecuentes y sofisticados.
Existen actividades delictivas que se realizan por medio de estructuras electrónicas que van ligadas a un sin número de herramientas delictivas que buscan infringir y dañar todo lo que encuentren en el ámbito informático: ingreso ilegal a sistemas, interceptado ilegal de redes, interferencias, daños en la información (borrado, dañado, alteración o supresión de datacredito), mal uso de artefactos, chantajes, fraude electrónico, ataques a sistemas, robo de bancos, ataques realizados por hackers, violación de los derechos de autor, pornografía infantil, pedofilia en Internet, violación de información confidencial y muchos otros.

4.    Enumere  las principales leyes y políticas colombianas frente al delito informático:
a)    Ley 527 de 1999 (acceso al uso de mensajes de datos, comercio electrónico, firmas digitales y entidades certificadoras).
b)    Decreto número 2170 de 2002 (Formas de contratación del estado, por medios electónicos)
c)    Decreto número 679 de 2011 (abuso sexual de menores a través de medios electrónicos)
d)    Ley 603 (derechos de autor y antipiratería)
5.    Hadware:
Corresponde a todas las partes físicas y tangibles de una computadora: sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible, y que es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».[3] El término, aunque es lo más común, no solamente se aplica a una computadora tal como se la conoce, ya que, por ejemplo, un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia también poseen hardware (y software).
El término hardware tampoco correspondería a un sinónimo exacto de «componentes informáticos», ya que esta última definición se suele limitar exclusivamente a las piezas y elementos internos, independientemente de los periféricos.
La historia del hardware del computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Este hardware se puede clasificar en: básico, el estrictamente necesario para el funcionamiento normal del equipo; y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados.

6.    Software:
Se conoce como software al equipamiento lógico o soporte lógico de una computadora digital; comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de textos, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz para el usuario.
7.    CPU:
La unidad central de procesamiento o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.
8.    Microprocesador:
El microprocesador, o simplemente procesador, es el circuito integrado central y más complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar por analogía como el "cerebro" de una computadora.
El procesador es un circuito integrado constituido por millones de componentes electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.
Desde el punto de vista funcional es, básicamente, el encargado de realizar toda operación aritmético-lógica, de control y de comunicación con el resto de los componentes integrados que conforman un PC, siguiendo el modelo base de Von Neumann. También es el principal encargado de ejecutar los programas, sean de usuario o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel, realizando operaciones elementales, básicamente, las aritméticas y lógicas, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.


9.    Circuito integrado:
Un circuito integrado (CI), también conocido como chip o microchip, es una pastilla pequeña de material semiconductor, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso.

10. Transistor:
El transistor es un dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. El término "transistor" es la contracción en inglés de transfer resistor ("resistencia de transferencia"). Actualmente se los encuentra prácticamente en todos los aparatos domésticos de uso diario: radios, televisores, grabadoras, reproductores de audio y video, hornos de microondas, lavadoras, automóviles, equipos de refrigeración, alarmas, relojes de cuarzo, computadoras, calculadoras, impresoras, lámparas fluorescentes, equipos de rayos X, tomógrafos, ecógrafos, reproductores mp3, teléfonos móviles, etc.

11. Válvula al vacío:
La válvula electrónica, también llamada válvula termoiónica, válvula de vacío, tubo de vacío o bulbo, es un componente electrónico utilizado para amplificar, conmutar, o modificar una señal eléctrica mediante el control del movimiento de los electrones en un espacio "vacío" a muy baja presión, o en presencia de gases especialmente seleccionados. La válvula originaria fue el componente crítico que posibilitó el desarrollo de la electrónica durante la primera mitad del siglo XX, incluyendo la expansión y comercialización de la radiodifusión, televisión, radar, audio, redes telefónicas, computadoras analógicas y digitales, control industrial, etc. Algunas de estas aplicaciones son anteriores a la válvula, pero vivieron un crecimiento explosivo gracias a ella.
12. Abaco:
Un ábaco es un objeto que sirve para facilitar cálculos sencillos (sumas, restas y multiplicaciones) y operaciones aritméticas. También es un cuadro de madera con alambres paralelos por los que corren bolas movibles y que sirve para enseñar el cálculo. Su origen se remonta a la zona de Asia Menor, muchos años antes de nuestra era.

13. Sistema operativo:
Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones.
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, el cual es el núcleo del sistema operativo GNU, del cual existen las llamadas distribuciones GNU. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.[3] (Véase AmigaOS, beOS o MacOS como los pioneros de dicha modernización, cuando los Amiga, fueron bautizados con el sobrenombre de Video Toasters por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.


14. Kernel:
En informática, un núcleo o kernel (de la raíz germánica Kern) es un software que actúa de sistema operativo.Es el principal responsable de facilitar a los distintos programas acceso seguro al hardware de la computadora o en forma más básica, es el encargado de gestionar recursos, a través de servicios de llamada al sistema. Como hay muchos programas y el acceso al hardware es limitado, también se encarga de decidir qué programa podrá hacer uso de un dispositivo de hardware y durante cuánto tiempo, lo que se conoce como multiplexado. Acceder al hardware directamente puede ser realmente complejo, por lo que los núcleos suelen implementar una serie de abstracciones del hardware. Esto permite esconder la complejidad, y proporciona una interfaz limpia y uniforme al hardware subyacente, lo que facilita su uso al programador.
15. Jhon Von Neuman:
Fue uno de los más grandes matemáticos del siglo XX. Húngaro-estadounidense que realizó contribuciones importantes en física cuántica, análisis funcional, teoría de conjuntos, ciencias de la computación, economía, análisis numérico, cibernética, hidrodinámica (de explosiones), estadística y muchos otros campos de la matemática.
Nació en el Imperio de Austria-Hungría, en Budapest, en el seno de una familia de banqueros, ennoblecida por el Imperio. Un niño prodigio que estudió matemáticas y química en su ciudad natal, Berlín y Zurich. Recibió su doctorado en matemáticas de la Universidad de Budapest a los 23 años, un año antes que se cerrara a los estudiantes de origen hebreo. Fue profesor en Berlín y Hamburgo en los años 20. Es sumamente probable que ya en Gotinga, la Meca de los matemáticos por aquel entonces, conociese a Norbert Wiener entre 1924 y 1926.
Fue una de las cuatro personas seleccionadas para la primera facultad del Institute for Advanced Study (Instituto para Estudios Avanzados). Trabajó en el Proyecto Manhattan. Junto con Edward Teller y Stanislaw Ulam, resolvió pasos fundamentales de la física nuclear involucrada en reacciones termonucleares y la bomba de hidrógeno.
Es considerado el padre de la teoría de juegos y publicó el clásico libro Theory of games and economic behavior ('Teoría de juegos y comportamiento económico'), junto a Oskar Morgenstern, en 1944. También concibió el concepto de "MAD" (Mutually Assured Destruction o 'destrucción mutua asegurada'), concepto que dominó la estrategia nuclear estadounidense durante los tiempos de posguerra.
Fue pionero de la computadora digital moderna y de la aplicación de la teoría de operadores a la mecánica cuántica. Trabajó con Eckert y Mauchly en la Universidad de Pennsylvania, donde publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria de la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la llamada EDVAC (Electronic Discrete-Variable Automatic Computer, es decir 'computadora automática electrónica de variable discreta'), desarrollada por Von Neumann, Eckert y Mauchly. Los programas almacenados dieron a las computadoras flexibilidad y confiabilidad, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos. Su nueva tecnología usaba el sistema Binario en vez del Decimal
Otra de sus inquietudes fue la capacidad de las máquinas de autorreplicarse, lo que le llevó al concepto de lo que ahora llamamos máquinas de Von Neumann o autómatas celulares.
16. Bertalanfy:
Karl Ludwig von Bertalanffy (nacido el 19 de septiembre de 1901 en Viena, Austria y fallecido el 12 de junio de 1972 en Bufalo, Nueva York, Estados Unidos) fue un biólogo y filósofo austríaco, reconocido fundamentalmente por su teoría de sistemas.
La Teoría General de Sistemas fue, en origen una concepción totalizadora de la biología (denominada "organicista"), bajo la que se conceptualizaba al organismo como un sistema abierto, en constante intercambio con otros sistemas circundantes por medio de complejas interacciones. Esta concepción dentro de una Teoría General de la Biología fue la base para su Teoría General de los Sistemas. Bertalanffy leyó un primer esbozo de su teoría en un seminario de Charles Morris en la Universidad de Chicago en 1937, para desarrollarla progresivamente en distintas conferencias dictadas en Viena. La publicación sistemática de sus ideas se tuvo que posponer a causa del final de la Segunda Guerra Mundial, pero acabó cristalizando con la publicación, en 1969 de su libro titulado, precisamente Teoría General de Sistemas. Von Bertalanffy utilizó los principios allí expuestos para explorar y explicar temas científicos y filosóficos, incluyendo una concepción humanista de la naturaleza humana, opuesta a la concepción mecanicista y robótica.
17. Teoría del caos:
Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales, pueden implicar grandes diferencias en el comportamiento futuro; complicando la predicción a largo plazo. Esto sucede aunque estos sistemas son deterministas, es decir; su comportamiento está completamente determinado por sus condiciones iniciales.
Los sistemas dinámicos se pueden clasificar básicamente en:
  • Estables.
  • Inestables.
  • Caóticos.
Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión (atractor o sumidero). Un sistema inestable se escapa de los atractores. Y un sistema caótico manifiesta los dos comportamientos. Por un lado, existe un atractor por el que el sistema se ve atraído, pero a la vez, hay "fuerzas" que lo alejan de éste. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un atractor fijo.
Una de las mayores características de un sistema inestable es que tiene una gran dependencia de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta. Ejemplos de tales sistemas incluyen el Sistema Solar, las placas tectónicas, los fluidos en régimen turbulento y los crecimientos de población.