INSTRUCTIVO DE EXCEL

EXCEL

Microsoft Excel es una aplicación para manejar hojas de cálculo. Este programa es desarrollado y distribuido por Microsoft, y es utilizado normalmente en tareas financieras y contables.
Historia
Microsoft comercializó originalmente un programa de Hoja de cálculo llamado Multiplan en 1982, que se convirtió muy popular en los sistemas CP/M , pero en los sistemas MS-DOS perdió popularidad frente al Lotus 1-2-3. Microsoft publicó la primera versión de Excel para Mac en 1985, y la primera versión de Windows (numeradas 2-05 en línea con el Mac y con un paquete de tiempo de ejecución de entorno de Windows) en noviembre de 1987. Lotus fue lenta al llevar 1-2-3 para Windows y esto ayudó a Microsoft a alcanzar la posición de los principales desarrolladores de software para hoja de cálculo de PC. Este logro solidificó a Microsoft como un competidor válido y mostró su futuro de desarrollo como desarrollador de software GUI. Microsoft empujó su ventaja competitiva lanzando al mercado nuevas versiones de Excel, por lo general cada dos años. La versión actual para la plataforma Windows es Excel 14.0, también denominada Microsoft Excel 2010. La versión actual para Mac OS X igualmente se conoce como Microsoft Excel 2010.
La lista de versiones de Microsoft Excel que han sido lanzadas al mercado para Microsoft Windows son:
• En el año 1987 Excel 2.0.
• En el año 1990 Excel 3.0.
• En el año 1992 Excel 4.0.
• En el año 1993 Excel 5.0 (Office 4.2 & 4.3).
• En el año 1995 Excel 7.0 (Office ‘95).
• En el año 1997 Excel 8.0 (Office ‘97).
• En el año 1999 Excel 9.0 (Office 2000).
• En el año 2001 Excel 10.0 (Office XP).
• En el año 2003 Excel 11.0 (Office 2003).
• En el año 2007 Excel 12.0 (Office 2007).
• En el año 2010 Excel 14.0 (Office 2010).

Especificaciones, límites y problemas
Especificaciones y límites
Las características, especificaciones y límites de Excel han variado considerablemente de versión en versión, exhibiendo cambios en su interfaz operativa y capacidades desde el lanzamiento de su versión 12.0 mejor conocida como Excel 2007. Se puede destacar que mejoró su límite de columnas ampliando la cantidad máxima de columnas por hoja de cálculo de 256 a 16.384 columnas. De la misma forma fue ampliado el límite máximo de filas por hoja de cálculo de 65.536 a 1.048.576 filas1 por hoja. Otras características también fueron ampliadas, tales como el número máximo de hojas de cálculo que es posible crear por libro que pasó de 256 a 1.024 o la cantidad de memoria del PC que es posible emplear que creció de 1 GB a 2 GB soportando además la posibilidad de usar procesadores de varios núcleos.
Problema de manejo de fechas anteriores a 1900
Uno de los problemas conocidos de esta hoja de cálculo, es el hecho de su incapacidad para manejar fechas anteriores a 19002 (incluyendo versiones para Mac OS X), es decir, no puede manejar campos en formato de fecha anteriores a dicho año (como acontecimientos históricos). Este problema se ha venido presentando desde versiones más antiguas de 16 bits, persistiendo aún en la versión actual.
Bug de multiplicación
El 22 de septiembre del 2007 se informó que la hoja de cálculo Excel 2007 mostraba resultados erróneos bajo ciertas condiciones. Particularmente para algunas parejas de números, para los que el producto sea 65535 (tales como 850 y 77.1), Excel muestra como resultado de la operación 100000. Esto ocurre con alrededor del 14.5% de tales pares. Además, si se suma uno a este resultado Excel lo calcula como 100001. No obstante, si se resta uno al resultado original, entonces muestra el valor correcto 65534. (También si se multiplica o divide por 2, muestra los valores correctos 131070 y 32767.5, respectivamente).3
Microsoft informó en el blog de Microsoft Excel,4 que el problema existe al mostrar seis puntos flotantes específicos entre 65534.99999999995 y 65535, y seis valores entre 65535.99999999995 y 65536 (no incluye los enteros). Cualquier cálculo realizado con uno de estos valores se mostrará de modo incorrecto. El valor del cálculo almacenado y pasado a otra celda es correcto, sólo el valor mostrado estaría errado. Sin embargo, en algunas instancias, como al redondear el valor con cero dígitos decimales, almacenará un valor incorrecto en memoria. Este error se introdujo con los cambios realizados a la lógica de información en pantalla de la versión 2007, y que no existe en las versiones anteriores. El 9 de octubre de 2007 Microsoft lanzó un parche para este bug.5 Este problema también queda subsanado con la instalación del Service Pack 1, y desapareció por completo en todas las versiones de Excel lanzadas al mercado posteriormente.

Posted in Uncategorized | Leave a comment

CORRECCIÓN SEGUNDO PARCIAL

CORRECCION PARCIAL

  1. MARCAR CON UNA X LA RESPUESTA CORRECTA.
  • Uno de los dispositivos usados o creados en la edad antigua fue:
  1. Los microprocesadores
  2. Calculadora de secuencia automática
  3. Maquina procesadora de información
  4. Tarjetas perforadas

 

  1. Cuáles de los siguientes avances se dieron en la historia de la computación en la edad moderna.
    1. Univac-Sistemas de circuitos
    2. La pascalina y maquina procesadora
    3. Tarjetas perforadas y Aritmómetro Electromagnético
    4. Abaco-Piedras de cálculo

 

  1. COMPLETAR
    1. Qué es Windows? Microsoft Windows es el nombre de una serie de sistemas operativos desarrollados por Microsoft desde 1981, Anunciado en 1983, Microsoft comercializó por primera vez el entorno operativo denominado Windows en noviembre de 1985 como complemento para MS-DOS.
    2. Cuáles son las partes del teclado? El teclado se divide en cuatro zonas principales: teclas alfanuméricas, teclas de función, teclas numéricas y teclas de dirección.
    3. Qué versiones de Windows se conocen en el mercado? Las versiones de Windows que se conocen en el mercado son los siguientes: en el mercado estaban lo que era Windows 95, Windows 98, Windows xp, Windows 7 y Windows vista, ya que se puede decir que de Windows hay muchas versiones y pueden seguir habiendo mas.
    4. Cuáles iconos o combinaciones se pueden utilizar en Windows y para qué sirve cada uno? Los iconos o combinaciones que se pueden utilizar en Windows son los siguientes:
  • F1 ayuda y soportes.
  • F3 buscar la pagina.
  • Alt+Tab cambiar de pagina o documento abierto.
  • Tecla win+m minimizar.
  • Tecla win+e ir a equipo.
  • Ctrl+esc ir a inicio.
  • Ctrl+barra esp ir a inicio.
  • Alt+F4 apagar.
  • Ctrl+F4 nada
  1. Dibujar algunos iconos que manejan los programas de Windows. Word-papelera de reciclaje-internet Explorer y Excel.
  2. Describa los pasos que se deben seguir realizar para crear en blog en WordPress. Los pasos que se deben seguir para crear un blog son:

ü  Escoge una temática para tu blog:

Es la primera decisión que debes tomar. Escoge una temática que ames – no quiero decir AMOR- solo que no te debe ser difícil escribir contenido de calidad en tu blog.

ü  Escoge un buen nombre para tu blog:

Supón que quieres escribir acerca del “Basketball” . y entonces escoge un nombre que esté relacionado con este tema. Por ejemplo “superbasket” podría ser un buen nombre para este blog. Por supuesto, debes mirar si este nombre ya lo tiene otro blog, si no es así, regístralo lo más antes posible.

ü  Escoge una plataforma para tu blog:

Es muy importante que te instruyas sobre las plataformas para blogs. Hay varias plataformas que puedes escoger, solo observa: consejos para bloggers novatos parte 2 ¿Cómo comienzo? Míralas todas y escoge la que más te guste.

ü  Escoge una plantilla para el blog:

Cuando hayas escogido la plataforma para el blog, debes escoger una plantilla para esta. Hay una gran cantidad de plantillas disponibles en todo el internet que hacen de esta parte, la más divertida de todas a mi parecer.

ü  Escoge tu frecuencia de publicación:

Este es uno de los factores más importantes a decidir. Cuando tú empiezas a publicar, debes hacerlo de forma regular así tus lectores sabrán que esperar de ti. Si empiezas a publicar como un loco por un tiempo y después no publicas nada por algún tiempo, te encontraras con la dificultad de hacer que tus lectores sigan regresando.

ü  Sé siempre activos en la blogósfera:

Visita otros sitios, si tienes que decir algo en otros blogs, dilo, no solo lo piensas y te vas, únete a comunidades sociales en internet interactúa con otros bloggers alrededor de la web.

ü  Escribe artículos interesantes y de calidad en tu blog:

Si puedes hacer esto, tienes un futuro en la blogósfera. Un artículo que te explica más este paso y el quinto paso es: cantidad vs calidad: ¿Qué es más importante?

  1. Cuál es el dominio de su blog y realice una explicación como está estructurado? El dominio de mi blog es edanra ese fue el nombre que le coloque y está estructurado básicamente con todos los trabajos que he realizado en la clase de informática ya que esa es la única información que posee el blog.
  2. Explicar para qué sirven los siguientes programas de Windows.

WORD: Es un software destinado al procesamiento de textos.

EXCEL: Es una aplicación para manejar hojas de cálculo. Este programa es desarrollado y distribuido por Microsoft, y es utilizado normalmente en tareas financieras y contables.                                                                           

PUBLISHER: Microsoft Publisher es un programa que provee un historial simple de edición similar al de su producto hermano Word

ACCES: Microsoft Access es un programa, utilizado en los sistemas operativos Microsoft Windows, para la gestión de bases de datos creado y modificado por Microsoft y orientado a ser usado en entornos personales o en pequeñas organizaciones.

POWER POINT: Microsoft PowerPoint es un programa de presentación desarrollado por la empresa Microsoft para sistemas operativos Microsoft Windows y Mac OS, ampliamente usado en distintos campos como la enseñanza, negocios, etc.

 

 

 

 

 

 

                                   

Posted in Uncategorized | Leave a comment

MANUAL MICROSOFT OFFICE

MICROSOFT OFFICE

 

Microsoft Office
 
Desarrollador
 
Información general
Lanzamiento inicial 1990
Última versión estable 2010 (Compilación 14.0.5128.5000)
26 de octubre de 2010; hace 6 meses (2010-10-26)
Género Suite Ofimática
Escrito en C++, C-sharp
Sistema operativo Microsoft Windows
Plataforma Multiplataforma
Licencia Propietario / Microsoft CLUF (EULA)
Idiomas 35+
En español  
Soporte técnico
Todas las versiones de la suite ofimática Microsoft Office reciben un grado variable de soporte, bajo la directiva de Ciclo de vida de soporte técnico de Microsoft (info)
Véase: Ciclo de vida de los productos

 

Microsoft Office: Mac
Desarrollador
Microsoft
Página principal de Office para Mac
Información general
Lanzamiento inicial 1989
Última versión estable 2011 (Versión 14.0.0)
26 de octubre de 2010; hace 6 meses (2010-10-26)
Género Suite Ofimática
Escrito en C++, Carbon
Sistema operativo Mac OS
Plataforma Multiplataforma
Licencia Propietario / Microsoft CLUF (EULA)
En español  
Soporte técnico
Todas las versiones de la suite ofimática Microsoft Office reciben un grado variable de soporte, bajo la directiva de Ciclo de vida de soporte técnico de Microsoft (info)
Véase: Ciclo de vida de los productos

Microsoft Office es una suite de oficina que abarca e interrelaciona aplicaciones de escritorio, servidores y servicios para los sistemas operativos Microsoft Windows y Mac OS X. Microsoft Office fue lanzado por Microsoft en 1989 para Apple Macintosh,[1] más tarde seguido por una versión para Windows, en 1990.[2] La primera versión de Office contenía Microsoft Word, Microsoft Excel y Microsoft PowerPoint. Además, una versión “Pro” (profesional) de Office incluía Microsoft Access y Schedule Plus. Con el tiempo, las aplicaciones de Office han crecido sustancialmente y de forma más estrecha con características compartidas, como un corrector ortográfico común, la integración de datos OLE y el lenguaje de secuencias de comandos de Microsoft, Visual Basic para aplicaciones. Microsoft también posiciona Office como una plataforma de desarrollo para software de línea de negocios, bajo la marca de Office Business Applications (aplicaciones empresariales de Office u OBA por sus siglas en inglés).

La suite usó desde 1997 hasta 2003 un grupo de formatos conocido como 97-2003 o 98-2004. En los años 2007 y 2008 con la introducción de Office 2007 y Office 2008, se crearon un nuevo grupo de formatos denominados Office Open XML (docx, xlsx, pptx), los cuales se mantienen en las más recientes versiones de la suite, Office 2010 y Office 2011 para Mac.

De acuerdo con Forrester Research, a Junio de 2009 las diferentes versiones de Microsoft Office son usadas por más del 80% de las empresas alrededor del mundo. La última versión (Office 2007/Office 2008) ocupa el 80% de las instalaciones. Actualmente, el paquete ofimático de Microsoft afronta una fuerte competencia por parte OpenOffice.org, IBM Lotus Symphony, Google Docs e IWork.

BREVE HISTORIA  DE OFFICE

Office hizo su aparición en 1989 en un Mac, y más adelante en Windows en 1990. El término fue inicialmente usado en marketing para vender un set de aplicaciones, que previamente se vendían separadamente. El principal argumento de venta era que comprar el paquete completo resultaba más barato que comprar cada aplicación por separado. La primera versión de Office contenía las aplicaciones Microsoft Word, Microsoft Excel y Microsoft PowerPoint. Adicionalmente, una llamada “versión profesional” de Office incluía también Microsoft Access y Schedule Plus.

Con el transcurso de los años las aplicaciones de Office han crecido sustancialmente desde un punto de vista técnico, incluso comparten funcionalidades, tales como: corrector ortográfico común, un integrador de datos OLE y el lenguaje de scripts de Visual Basic para Aplicaciones. Microsoft también posiciona a Office como una plataforma de desarrollo para la línea de software para negocios.

Las versiones actuales son Office 2010 para Windows, lanzada el 15 de abril de 2010 y Office 2011 para Mac. Office 2010, anunciado el 15 de abril de 2010 fue liberado el 15 de Abril de 2010 para negocios a través de los canales de MSDN. Una nueva interfaz de usuario y un nuevo formato de archivo primario basado en XML (llamado OpenXML) caracterizan esta versión.

Este paquete como tal es, probablemente, el más antiguo y de mayores prestaciones.[cita requerida] Hay quienes creen que es uno de los mejores productos conjuntos (set) de microsoft, y desde hace más de 10 años es el más popular.[cita requerida] El iWork de Mac es un rival para ese paquete propietario.

Microsoft siguió con Office la estela del paquete Lisa Office System de Apple que ya en 1983 ofrecía procesador de texto y hoja de cálculo entre sus siete aplicaciones, bajo un sistema operativo con ventanas, escritorio y papelera, 12 años antes del Windows 95.

La última versión RTM, llamada Office 2010 ó también llamada Office 14, se lanzó al mercado el 15 de junio de 2010, dicha versión es la compilación 14.0.4760.1000, la cual se encuentra disponible en 35 idiomas.

PROGRAMAS DE OFFICE

 

WORD

Microsoft Word es el procesador de textos de la suite. Word posee una posición dominante en el mercado de los procesadores de texto. Su formato propietario DOC es considerado un estándar de facto, aunque en su más reciente versión, Word 2007 utiliza un nuevo formato basado en XML llamado .DOCX, pero también tiene la capacidad de guardar y abrir documentos en el formato DOC. Word está también incluido en algunas versiones de Microsoft Works. Está disponible para las plataformas Microsoft Windows y Mac OS. La primera versión de Word, liberada en 1983, fue para el sistema operativo MS-DOS y tuvo la distinción de introducir en el uso del mouse a una gran cantidad de personas. Word 1.0 podía ser comprado con un mouse, aunque era opcional. La siguiente primavera, Apple lanzó el Mac, y Microsoft desarrolló Word para Mac, el cual se convirtió en la aplicación más popular para este sistema. Requería (como todas las aplicaciones para Mac) la utilización de un ratón.

Extensiones comunes: .doc (Word 97-2003), .docx (Word 2007-2010), .dot, rtf (todas).

HERRAMIENTAS DE WORD

ORTOGRAFÍA Y SINONIMOS: corrección y búsqueda de sinónimos.

CONTADOR DE PALABRAS Y PERSDONALIZACIÓN DEL DICCIONARIO: es una parte más profunda del diccionario que permite la adición de palabras desconocidas para él.

PROTECCIÓN DE DOCUMENTOS: siempre será necesario proteger los documentos importantes de cualquier cambio.

CONVINACIÓN DE CORRESPONDENCIA: para la elaboración de cartas o etiquetas con contenido original pero destinatarios diferentes esta es la herramienta ideal.

IMÁGENES EN SOBRES Y ETIQUETAS: creación de etiquetas y sobres con diseños hechos en paint.net.

CONVERSIÓN DE TABLAS A TEXTO/CONTROL DE CAMBIOS: el control de cambios notificara cuando y quien cambio parte editada con marcas especiales.

EXCEL

Microsoft Excel es un programa de hoja o planilla de cálculo. Al igual que Microsoft Word, posee actualmente un mercado dominante. Fue originalmente el más fuerte competidor del entonces popular Lotus 1-2-3, y en tercera posición estuvo Quattro Pro; pero eventualmente Excel se vendió más, se popularizó y se convirtió en el estándar de facto. Está disponible para plataformas Windows y Macintosh.[cita requerida]

Extensiones comunes: .xls (Excel 97-2003), .xlsx (Excel 2007-2010)

HERRAMIENTAS DE EXCEL

 

La Barra de Herramientas Estándar
 

 

La mayor parte de los botones de Excel en la Barra Estándar, son verdaderamente estándar. Verá a los mismos botones en otros programas de Microsoft, como por ejemplo en Word. No obstante esto, hay algunas diferencias en la manera en que los botones funcionan, lo que podría causar problemas.   

Clic en un botón en la imagen de la Barra Estándar de arriba. Aparecerá una corta explicación sobre lo que hace ese botón, en una ventana por separado. Puede cambiar hacia adelante y atrás entre las ventanas o puede usar el botón Siguiente, en la nueva ventana, para ir en orden a través de todos los botones.

 

La Barra de Formato

 

Con la Barra de Formato puede cambiar el aspecto de su hoja de cálculo y de sus números. Como los números representan tanto, dentro de todo lo que contiene una hoja de cálculo, Excel dispone de varios botones para dar formato a los mismos. Los otros botones para dar formato  funcionan como se espera.   

Los comandos de formato se aplican generalmente a toda la celda. También puede dar formato solamente a una parte del texto contenido dentro de la celda (fuente, tamaño de fuente, estilos, color), pero en cambio, los formatos de números, alineamientos y sangrías solo se aplican a la celda íntegra. Los alineamientos y sangrías son aplicados solo dentro de la celda y no a través de toda la página u hoja de cálculo.    

Clic en un botón en la imagen de la Barra de Formato de arriba. En una ventana separada, aparecerá una corta explicación de que es lo que hace el botón. Puede ir hacia adelante y atrás, entre las ventanas, o puede usar al botón Siguiente en la nueva ventana, para ir en orden a través de todos los botones.   

La Barra Fórmula

Para  ayudar a que la vida siga siendo confusa, el término Barra Fórmula, es usado tanto para significar toda la barra que se ve debajo de la barra de herramientas Formato, como también para el cuadro de texto a la derecha, que exhibe lo que contiene la celda seleccionada.    
Los botones en Excel 97/2000 son algo diferentes:

Clic en cada parte de la Barra Fórmula de la imagen de arriba. Aparecerá en una ventana separada una corta explicación sobre la función de esa parte. Puede cambiar hacia adelante y atrás entre las ventanas, o puede usar el botón Siguiente, en la nueva ventana para ir en orden a través de todos los botones.

La Barra de Estado

 

La Barra de Estado está bastante escondida al fondo de la ventana.  Se ve muy vacía la mayor parte del tiempo. Su función es de mantenerlo informado sobre que es lo que está sucediendo – y cual es el estado. 

La parte izquierda de los mensajes se refiere a que es lo que está sucediendo. Los indicadores de Modo, muestran las características especiales que han sido activadas. 

Clic en cada parte de la Barra de Estado de la imagen de arriba. En una ventana separada, aparecerá una corta explicación sobre que es lo que hace esa parte. Puede cambiar hacia adelante y atrás entre las ventanas, o puede usar el botón Siguiente en la nueva ventana para ir en orden a través de todos los botones.

POWER POINT

PowerPoint es la herramienta que nos ofrece Microsoft Office para crear presentaciones. Las presentaciones son imprescindibles hoy en día ya que permiten comunicar información e ideas de forma visual y atractiva.

Se pueden utilizar presentaciones en la enseñanza como apoyo al profesor para desarrollar un determinado tema, para exponer resultados de una investigación, en la empresa para preparar reuniones, para presentar los resultados de un trabajo o los resultados de la empresa, para presentar un nuevo producto, etc. En definitiva siempre que se quiera exponer información de forma visual y agradable para captar la atención del interlocutor.

Con PowerPoint podemos crear presentaciones de forma fácil y rápida pero con gran calidad ya que incorpora gran cantidad de herramientas que nos permiten personalizar hasta el último detalle, por ejemplo podemos controlar el estilo de los textos y de los parrafos, podemos insertar gráficos, dibujos, imágenes, e incluso texto WordArt.

Podemos también insertar efectos animados, películas y sonidos. Podemos revisar la ortografía de los textos e incluso insertar notas para que el locutor pueda tener unas pequeñas aclaraciones para su exposición y muchas más cosas que veremos a lo largo del curso.

Para empezar veremos la forma de arrancar el programa y cuáles son los elementos básicos de PowerPoint, la pantalla, las barras, etc, para familiarizarnos con el entorno.

Aprenderás cómo se llaman, donde están y para qué sirven. Cuando conozcas todo esto estarás en disposición de empezar a crear presentaciones en el siguiente tema.

Desde el botón Inicio situado, normalmente, en la esquina inferior izquierda de la pantalla. Coloca el cursor y haz clic sobre el botón Inicio se despliega un menú; al colocar el cursor sobre Programas, aparece otra lista con los programas que hay instalados en tu ordenador; buscar Microsoft PowerPoint, y al hacer clic sobre él e arrancará el programa. En tu ordenador; buscar Microsoft PowerPoint, y al hacer clic sobre él e arrancará el programa.

Iniciar PowerPoint aparece una pantalla inicial como la que a continuación te mostramos. Ahora conoceremos los nombres de los diferentes elementos de esta pantalla y así será más fácil entender el resto del curso. La pantalla que se muestra a continuación puede no coincidir exactamente con la que ves en tu ordenador, ya que cada usuario puede decidir qué elementos quiere que se vean en cada momento, como veremos más adelante.

La parte central de la ventana es donde visualizamos y creamos las diapositivas que formarán la presentación. Una diapositiva no es más que una de las muchas pantallas que forman parte de una presentación, es como una página de un libro.

LAS BARRAS DE POWERPOINT

 

 

Barra de titulo

 

 

 

 

Barra de menús

 

 

 

 

Barra de herramientas

 

Barra de formato

 

 

 

 

 

Barra de desplazamiento

 

                                          Cuadro de desplazamiento

 

Barra de estado

 

 

CREAR UNA PRESENTACIÓN

 

 

A continuación veremos cómo crear una Presentación en blanco, esta opción se suele utilizar cuando la persona que genera la presentación sabe manejar bien el programa y también cuando ninguna de las plantillas que incorpora PowerPoint se adapta a nuestras necesidades

Para crear una presentación en blanco sigue estos pasos:

  1. En el Panel de Tareas de la sección Nuevo selecciona la opción Presentación en Blanco.
  2. Si el panel de Tareas no está visible despliega el menú Ver y selecciona la opción Panel de Tareas.

 

Así es como te puede quedar una presentación en blanco. Tienes una diapositiva y dos cuadros de texto para añadir un título y añadir un subtítulo.

A partir de ahí tendremos que dar contenido a las diapositivas, añadir las diapositivas que hagan falta y todo lo demás.

Puede que tengas configurado PowerPoint para que automáticamente se abra la sección Aplicar diseño de diapositiva para que puedas asignar a la nueva diapositiva uno de los diseños predefinidos.

GUARDAR UNA PRESENTACIÓN

A continuación veremos cómo guardar una presentación. Es importante que cada cierto tiempo guardemos los cambios realizados en nuestra presentación para que en el caso de que el sistema falle perdamos los menos cambios posibles.

Para guardar una presentación podemos ir al menú Archivo y seleccionar la opción Guardar o también se puede hacer con el botón .

Si es la primera vez que guardamos la presentación nos aparecerá una ventana similar a la que mostramos a continuación.

De la lista desplegable Guardar en seleccionaremos la carpeta en la cual queremos guardar la presentación.

También podemos crear una nueva carpeta con este icono , la carpeta se creará dentro de la carpeta que figure en el campo Guardar en.
Después en la casilla Nombre de archivo introduciremos el nombre con el cual queremos guardar la presentación y por último pulsaremos en el botón Guardar.

Si por algún motivo queremos guardar la presentación con otro formato para que pueda ser abierta por otra aplicación, como por ejemplo PowerPoint 95, desplegaremos la lista de Guardar como tipo: y seleccionaremos el formato adecuado de la lista desplegable.

Si el tipo de formato que seleccionamos es Presentación se guardará la presentación con la extensión ppt.

Si no es la primera vez que guardamos la presentación y pulsamos en el botón de guardar de la barra de herramientas o seleccionamos la opción Guardar del menú Archivo no nos aparecerá la ventana que hemos mostrado anteriormente, guardará los cambios sin preguntar.

 

TRABAJAR CON DIAPOSITIVAS

Cuando creamos una presentación podemos después modificarla insertando, eliminando, copiando diapositivas, etc. A continuación veremos paso a paso cómo podemos realizar cada una de estas operaciones que siendo tan sencillas tienen una gran utilidad.

Insertar una nueva diapositiva: Para insertar una nueva diapositiva te aconsejamos que si te encuentras en la vista normal selecciones la pestaña diapositiva del área de esquema ya que de esta forma es más fácil apreciar cómo se añade la nueva diapositiva a la presentación.

Puedes añadir una diapositiva de varias formas:

  • Pulsa en el botón que se encuentra en la barra de Formato.
  • Puedes hacerlo también a través de la barra de menús seleccionando el menú Insertar y después seleccionando la opción Nueva diapositiva
  • bien puedes hacerlo a través de las teclas Ctrl + M .

Una vez realizado esto podrás apreciar que en el área de esquema aparece al final una nueva diapositiva. Si tienes una diapositiva seleccionada inserta la nueva después de esta.

Para acabar la inserción de la diapositiva tendrás que seleccionar qué diseño quieres que tenga la nueva diapositiva y para ello tendrás que hacer clic sobre el diseño que quieras del Panel de tareas.

Como puedes apreciar en la imagen de la derecha puedes elegir una diapositiva para introducir texto y además con un formato determinado, o puedes elegir una diapositiva en blanco para añadirle lo que quieras o con objetos.

Copiar una diapositiva: Si estás situado en la vista normal te aconsejamos selecciones la pestaña de diapositiva del área de esquema ya que te será más fácil situarte en el lugar dónde quieres copiar la diapositiva.
Para copiar una diapositiva en una misma presentación puedes hacerlo de varias formas:

  • Selecciona la diapositiva que quieres copiar y pulsa en el botón copiar que se encuentra en la barra estándar. Después selecciona la diapositiva detrás de la cual se insertará la diapositiva a copiar y pulsa el botón pegar
  • También puedes hacerlo desde la barra de menús desplegando el menú Edición y seleccionando la opción Copiar. Después selecciona la diapositiva detrás de la cual se insertará la diapositiva a copiar y desplegando el menú Edición, seleccionar la opción Pegar.
  • Si prefieres utilizar el menú contextual, haz clic sobre la diapositiva que quieres copiar con el botón derecho (sabrás qué diapositiva tienes seleccionada porque alrededor de ella aparece un marco negro).

Cuando se despliegue el menú contextual selecciona la opción copiar. Después haz clic con el botón derecho del ratón sobre la diapositiva detrás de la cual se insertará la diapositiva a copiar. Por último selecciona del menú contextual la opción pegar.

[Otra forma de hacerlo es a través de las teclas, para ello en vez de utilizar el menú contextual para copiar y pegar utiliza las teclas Ctrl + C (copiar) y Ctrl + V (pegar).]

DUPLICAR UNA DIAPOSITIVA

Otra forma de copiar una diapositiva es duplicándola, la diferencia es que duplicar sirve para copiar una diapositiva en la misma presentación mientras que con copiar puedo copiar la diapositiva en otra presentación.

Para duplicar primero selecciona las diapositivas a duplicar. Una vez seleccionadas puedes duplicarlas de varias formas, elige la que más cómoda te resulte:

  • Hazlo desde la barra de menús desplegando el menú Edición y seleccionando la opción Duplicar diapositiva.
  • Otra forma es utilizando el menú contextual.
  • bien utilizando la combinación de teclas Ctrl + Alt + D

 

 

Posted in Uncategorized | Leave a comment

BIENVENIDOS A MI BLOG

espero que en mi blog encuentren lo necesario para hacer sus trabajos respecto a informatica.. sean todos bienvenidos!!! y aprovechenlo al maximo!!

Posted in Uncategorized | Leave a comment

HISTORIA DE LA COMPUTACIÓN

HISTORIA DE LA COMPUTACIÓN

  1. EDAD ANTIGUA

ÁBACO



Ábaco chino.

Un ábaco es un objeto que sirve para facilitar cálculos sencillos (sumas, restas y multiplicaciones) y operaciones aritméticas. También es un cuadro de madera con alambres paralelos por los que corren bolas movibles y que sirve para enseñar el cálculo. Su origen se remonta a la zona de Asia Menor, muchos años antes de nuestra era.

ETIMOLOGÍA

El término “ábaco” es una palabra existente en varios idiomas, con diversos posibles orígenes etimológicos discutidos. En latín se empleaban los términos abacus y el plural respectivo, abaci. En la lengua griega griego se usaba abaxabakon, que significan “superficie plana” o “tabla”. Otro probable origen es la palabra semítica Abaq que significa “polvo”. En la lengua Tamazigt (berber) aún hoy en algunos dialectos abaq significa semilla.

Las semillas, junto a pequeñas varillas y los guijarros o piedras, denominadas “calculi” en latín y que se empleaban para calcular en el ábaco, fueron los primeros elementos empleados para realizar el cómputo en la Historia de la Humanidad.

En otros idiomas se consiguen equivalentes de la palabra ábaco. Por ejemplo: en chino es Suan Pan, en japonés es Soroban, en coreano Tschu Pan, en vietnamita Ban TuanBan Tien, en rusoSchoty, en turco Coulba y en armenio Choreb.

DEFINICIÓN

Es un instrumento de cálculo que utiliza cuentas que se deslizan a lo largo de una serie de alambres o barras de metal o madera fijadas a un marco para representar las unidades, decenas, centenas, unidades de millar, decenas de millar, centenas de millar, etcétera. Fue inventado en Asia menor, y es considerado el precursor de la calculadora digital moderna. Utilizado por mercaderes en la Edad Media a través de toda Europa y el mundo árabe, fue reemplazado en forma gradual por la aritmética basada en los números indo-árabes. Aunque poco usado en Europa después del siglo XVIII, todavía se emplea en Medio Oriente, Rusia, China, Japón y Corea.

ORIGEN

El ábaco es considerado como el más antiguo instrumento de cálculo, adaptado y apreciado en diversas culturas. La época de origen del ábaco es indeterminada. En épocas muy tempranas, el hombre primitivo encontró materiales para idear instrumentos de conteo. Es probable que su inicio fuera en una superficie plana y piedras que se movían sobre líneas dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en China, donde el uso de este instrumento aún es notable al igual que en Japón. Otras opiniones sostienen que el ábaco nació en el Sahara, donde los antecesores del actual ábaco eran dameros rayados en la arena o en las rocas, usados tanto para realizar cálculos aritméticos como para jugar a diversos juegos tradicionales de inteligencia, que en el Sahara y en las Islas Canarias son muy abundantes.

Como gran parte de la aritmética inicialmente se realizaba con el ábaco, este término ha pasado a ser sinónimo de aritmética. Dicha denominación se encuentra en el texto Liber Abaci del matemático italiano Leonardo de Pisa Fibbonacci publicado en dos ediciones de 1202 y 1228, que trata del uso de los números indo-arábigos. La copia que ha visto la luz en la actualidad, corresponde a la edición de 1228.

Ábaco romano, Reconstrucción hecha por el RGZ Museum en Mainz, 1977. El original es de bronce y está en manos de la Biblioteca Nacional de Francia, en París.

Muchas culturas han usado el ábaco o el tablero de conteo, aunque en las culturas europeas desapareció al disponerse de otros métodos para hacer cálculos, hasta tal punto que fue imposible encontrar rastro de su técnica de uso.

Las evidencias del uso del ábaco surgen en comentarios de los antiguos escritores griegos. Por ejemplo, Demóstenes (384-322 a. C.) escribió acerca de la necesidad del uso de piedras para realizar cálculos difíciles de efectuar mentalmente. Otro ejemplo son los métodos de cálculo encontrados en los comentarios de Heródoto (484-425 a. C.), que hablando de los egipcios decía: “Los egipcios mueven su mano de derecha a izquierda en los cálculos, mientras los griegos lo hacen de izquierda a derecha”.

Algunas de las evidencias físicas de la existencia del ábaco se encontraron en épocas antiguas de los griegos en las excavaciones arqueológicas. En 1851se encontró una gran ánfora de 120 cm de altura, a la que se denominó Vaso de Darío y entre cuyos dibujos aparece una figura representando un contador que realiza cálculos manipulando cuentas. La segunda muestra arqueológica es un auténtico tablero de conteo encontrado en 1846 en la isla de Salamis; el tablero de Salamis, probablemente usado en Babilonia 300 a. C., es una gran pieza de mármol de 149 cm de largo por 75 cm de ancho, con inscripciones que se refieren a ciertos tipos de monedas de la época; este tablero está roto en dos partes. Por otra parte, se sabe que los romanos empleaban su ábaco con piedras calizas o de mármol para las cuentas a las que denominaron “calculi” lo cual es la raíz de la palabra cálculo.

REGLA DE CÁLCULO

La regla de cálculo es un instrumento de cálculo que dispone de varias escalas numéricas, para facilitar la rápida y cómoda realización de operaciones aritméticas complejas, como puedan ser multiplicaciones, divisiones, etc. A cambio de ello, no ofrece más que una precisión limitada. Su época de esplendor duró más de un siglo, el periodo comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, aunque había sido inventada mucho antes. La regla de cálculo fue sustituida paulatinamente por las calculadoras y los ordenadores electrónicos conforme fueron avanzando los últimos decenios del siglo XX.

Detalle de una regla de cálculo.

HISTORIA

William Oughtred (1575–1660), inventor de la regla de cálculo.

Los inicios de la regla de cálculo son bastante confusos. Todavía a principios del siglo XX se barajaban tres o cuatro nombres como inventores. Tras muchas controversias, la opinión de los historiadores es que fue inventada entre 1620 y 1630, pocos años después del descubrimiento por John Napier del concepto y propiedades de los logaritmos naturales en 1614, y una vez que se realizó su conversión a la base decimal por Henry Briggs en 1617.

Edmund Gunter fue el primero que expuso los logaritmos en una escala lineal. Esta era la famosa línea de Gunter, dada a conocer en su libro Canon triangulorum, que publicó en Londres en 1620. Y hacia 1621 William Oughtred –el gran matemático inglés de la época y amigo de Napier, al igual que lo eran Briggs y Gunter–, yuxtapuso las escalas de dos líneas de Gunter, ideando así la regla de cálculo actual, tanto en su versión lineal como circular. Pero Oughtred era un profesor de matemáticas riguroso, que pretendía que sus alumnos aprendiesen a razonar y conociesen a fondo la disciplina, no que se distrajeran con la utilización de artilugios mecánicos, de modo que durante mucho tiempo reservó el ingenio para su propio uso, sin darle publicidad.

Pero uno de sus discípulos, Richard Delamain, tuvo conocimiento del hecho y fue el primero en publicar información relativa a una regla circular hacia 1630, atribuyéndose el invento, de lo que derivaron enconadas disputas sobre su prioridad con Oughtred, quien pasó a otro de sus alumnos, William Forster, sus notas sobre el particular, escritas en latín, para que las diese a conocer. Forster las tradujo al inglés y en 1632 apareció la obra titulada The circles of proportion and the horizontal instrument, incluyendo al final de la misma una Apologeticall epistle en la que Oughtred respondía a los ataques de Delamain, al tiempo que le criticaba.

Todos estos instrumentos matemáticos se utilizaron preferentemente en tareas prácticas de cubicaje y aforo de mercancías, tanto por los comerciantes en maderas, cereales, vino, aceite, etc., como por los funcionarios de aduanas y fielatos encargados de cobrar cánones por ellas. También encontraron aplicación en la navegación marítima, aunque casi exclusivamente en Inglaterra, donde no sólo se realizaron las invenciones más importantes con ellas relacionadas, sino que además existían bastantes artesanos capaces de fabricar instrumentos de cierta precisión (como los Allen, los BrownHenry Sutton), que trabajaban en estrecho contacto con los inventores y realizaban los prototipos y las sucesivas copias.

Las peculiaridades del sistema de medidas inglés puede que tuviesen bastante que ver en esta falta de difusión. Hay que esperar a los principios del siglo XIX para que la regla de cálculo empiece a ser ampliamente conocida en Francia, y luego en Alemania, y a los comienzos del XX para que se convirtiese en instrumento de uso profesional y estudiantil muy generalizado.

En lo que a la concepción de los aparatos se refiere, la actividad creadora fue incesante en los tres siglos y medio de vigencia que tuvieron. Muchas de las ideas y propuestas no pasaron de la teoría o de la construcción de un prototipo, pero hubo algunas que lograron una cierta implantación. Las primeras reglas de composición integrada, similares a las actuales, fueron fabricadas por Seth Partridgeen 1658.

La idea del hilo como parte integrante de estos instrumentos monográficos, probablemente fue expresada por primera vez por Newton en 1675, aunque el cursor como tal fue desarrollado por John Robertson en 1775. Thomas Everard incorporó una escala inversa en 1683. Su regla tuvo bastante difusión, como también la tuvo otro modelo para carpintería desarrollado por Henry Coggeshall en 1677. Ambos instrumentos eran de madera, pero bastante toscos y poco precisos.

Hacia 1779 James WattMathew Boulton modificaron, para sus propios trabajos con la máquina de vapor, reglas de cálculo fabricadas por John Rowley, mejorando la división de las escalas y la precisión del aparato, que terminó siendo conocido como tipo Soho, por el nombre de su factoría de Birmingham. Esto difundió el uso del instrumento entre los ingenieros mecánicos.

La idea de las escalas doblemente logarítmicas (que permiten realizar operaciones de potenciación y de extracción de raíces con cualquier exponente, positivo o negativo, de una sola vez) la propuso inicialmente Peter Mark Roget en 1815, pero cayó en el olvido, para ser luego reinventada varias veces, al menos, por J. H. Thomson en 1881, por John Perry en 1901 y por Hubert Boardman en 1933. Su incorporación a las reglas comerciales no se produjo hasta bien avanzado el siglo XX.

La utilización de las dos caras de la regleta para la realización de cálculos (sistema dúplex) fue patentada por William Cox en 1891, siendo fabricada por la empresa norteamericana Keuffel and Esser.

Las reglas de cálculo cayeron en desuso con la popularización de la calculadora electrónica. En ingeniería, sucedió fundamentalmente con la aparición en el mercado del modelo HP-35 de Hewlett-Packard en 1972. Hacia 1980 había cesado prácticamente la producción de reglas de cálculo, aunque todavía siguen fabricándose instrumentos de este tipo en pequeñas cantidades para usos muy específicos en sectores industriales, de navegación marítima y aérea o para atender a un minoritario mercado de aficionados y coleccionistas.

LA REGLA

Regla de cálculo de 25 cm (Pickett N902-T).

La regla de cálculo consta de varias partes, como puede apreciarse en la imagen, perteneciente a un modelo estudiantil corriente de finales del siglo XX.

Hay en primer lugar, un soporte básico o cuerpo, generalmente paralelepipédico, que tiene una ranura longitudinal profunda en su parte central, lo que determina la aparición de dos sub-unidades, a saber, una regleta superior y otra inferior, más estrechas. En algunos modelos, como en el reproducido a la derecha, se trata efectivamente de dos piezas independientes, vinculadas entre sí rígidamente por abrazaderas situadas en sus extremos. Por la ranura central se desliza otra pieza en forma de regleta de menor tamaño, también llamada corredera.

En las caras frontales de estas piezas es donde están grabadas las diversas escalas. A veces la regleta móvil también ofrece escalas en su parte trasera, para cuyo uso se la ha de insertar a la inversa en el soporte básico o bien pueden leerse sus datos a través de orificios practicados en la superficie posterior del cuerpo. La parte trasera de éste también se aprovecha eventualmente para inscribir datos numéricos de interés o incluso otro conjunto completo de escalas; a los modelos así ampliados se les suele llamar dúplex, frente a la denominación desimplex aplicada a los que no son operativos más que por su cara frontal. El cuerpo de los modelos dúplex es necesariamente de dos piezas ensambladas. Han existido a lo largo de la historia algunos aparatos con varias regletas móviles.

Por último suele haber una pieza móvil y transparente, que abarca la totalidad de la superficie frontal (o del anverso y el reverso en el caso de las dúplex), y que no lleva grabada más que una fina línea de referencia, llamada hiloíndiceretículo, aunque a veces puede que haya alguna otra línea auxiliar. A esta pieza se le llama cursor y sirve para facilitar la alineación y la lectura de los factores que intervienen en las operaciones, sobre todo cuando las escalas intervinientes están alejadas entre sí; en los modelos dúplex resulta esencial para transferir datos de una cara a otra del aparato. Los cursores de algunas reglas actúan como una lupa para mejorar el detalle de las lecturas. A partir del segundo cuarto del siglo XX se realizaron algunos cursores de mayor complicación mecánica: pivotados radialmente, articulados, etc., pero nunca fueron muy populares, habiendo sido concebidos para usos muy especiales.

PASCALINA

Pascalina en el Museo de Artes y Oficios de París.

La pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas y engranajes. Fue inventada por Blaise Pascal tras tres años de trabajo sobre la misma. Se fabricaron varias versiones y Pascal en persona construyó unos cincuenta ejemplares.

El primer uso de la pascalina fue en la Hacienda francesa, debido a que Pascal diseñó la Pascalina para ayudar a su padre, que era contador en dicha entidad. Debido a ello la pascalina estaba destinada básicamente a solucionar problemas de aritmética comercial.

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

Se exponen algunos ejemplares originales en Inglaterra, y en el Museo de Artes y Oficios en Francia.

Blaise Pascal inventó la segunda calculadora mecánica de la Historia, llamada alternativamente, pascalina o la fálica, en 1645. La primera fue la construida por Wilhelm Schickard en 1623.

Pascal comenzó a trabajar en su calculadora en 1642, cuando tenía sólo 19 años de edad. Él pretendía ayudar a su padre (que trabajaba como recaudador fiscal) buscando crear un dispositivo que pudiera reducir un poco su carga de trabajo. Pascal recibió un Privilegio Real en 1649 que le concedió derechos exclusivos de hacer y vender calculadoras en Francia. Por 1652 Pascal ya había producido aproximadamente cincuenta prototipos pero sólo había vendido un poco más de una docena de máquinas; el costo y la complejidad de la Pascalina, combinados con el hecho que sólo podía sumar y restar, era una barrera a futuras ventas, y la producción cesó en aquel año. Para entonces Pascal había seguido adelante en sus investigaciones, principalmente el estudio de la presión atmosférica, y posteriormente la filosofía.

La pascalina se construyó en variedades decimales y no-decimales, que existen actualmente en museos. El sistema de moneda francés contemporáneo era similar a las libras imperiales (“livres”), chelines (“sols”) y peniques (“deniers”), que funcionaron en Gran Bretaña hasta los años 70.

En 1799 Francia cambió al sistema métrico decimal, momento en que el diseño básico de Pascal inspiró a otros artesanos, pero con la misma falta de éxito comercial. En 1672 el niño prodigio Gottfried Leibniz ideó un nuevo diseño, la Escalonada Reckoner, que podía realizar las operaciones de suma, resta, multiplicación y división; Leibniz trabajo durante cuarenta años para perfeccionar su diseño y lograr la producción de máquinas suficientemente fiables.

Las máquinas calculadoras no llegaron a ser comercialmente viables hasta principios del siglo XIX, cuando Charles Xavier Thomas de Colmar inventó el aritmómetro, utilizando un diseño que partía del diseño de Leibniz.

1833 MAQUINA PROCESADORA DE INFORMACION

Un profesor de matemática de la Universidad de Cambridge llamado Charles Babbage creó la máquina procesadora de información, también conocida como la primera computadora mecánica programable. El profesor dedicó cuarenta años a su construcción y murió sin terminarla.

LA MAQUINA ANALITICA COMO PRIMERA COMPUTADORA

El hecho más importante del Siglo XIX, sin embargo, no es el perfeccionamiento de las calculadoras mecánicas sino la concepción de una verdadera máquina procesadora de información, capaz de auto controlar su funcionamiento. Se debe al genio de Charles Babbage.

La primera computadora fue la máquina analítica creada por Charles Babbage, la idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores.

La máquina diferencial según se la llamó es lo que hace que muchos consideren a Babbage padre de la informática actual,

Como los modernos computadores la máquina de Babbage tenía un mecanismo de entrada y salida por tarjetas perforadas una memoria una unidad de control y una unidad aritmético-lógica. Preveía tarjetas separadas para programa y datos. Una de sus características más importantes era que la máquina podía alterar su secuencia de operaciones en base al resultado de cálculos anteriores algo fundamental en los ordenadores modernos. La máquina sin embargo nunca llegó a construirse. Babbage no pudo conseguir un contrato de investigación y pasó el resto de su vida inventando piezas y diseñando esquemas para conseguir los fondos para construir la máquina. Murió sin conseguirlo.

Aunque otros pocos hombres trataron de construir autómatas o calculadoras siguiendo los esquemas de Babbage su trabajo quedo olvidado hasta que inventores modernos que desarrollaban sus propios proyectos de computadores se encontraron de pronto con tan extraordinario precedente.

EL FUNCIONAMENTO DE LA MAQUINA ANALITICA

Para el funcionamiento de dicha maquina constaba básicamente de tres partes es por ellas que se considera a Babbage el padre de la computación; a continuación se menciona el funcionamiento de dichas partes y entre los paréntesis se encuentra su similar de hoy en día:

·EL ALMACEN

Sería la memoria moderna, que es una versión modificada de los registros individuales de su máquina de diferencias.

·EL MOLINO

Sería la unidad aritmetico-logica, que consiste en una disposición compleja de engranajes y enlaces alrededor de un círculo central.

·BARRAS DE CONTROL

Sería la unidad de control, similares a grandes tambores de cajas de música, donde se realizaban las instrucciones básicas de microkernel.

Su máquina estaba dividida en dos partes con funciones distintas especializadas que se complementaban una a la otra. Una de estas secciones ordenaba la ejecución de una instrucción y la otra parte era la encargada de ejecutarla en sí. El usuario podía cambiar las especificaciones de control y hacer que la misma máquina ejecutará operaciones diferentes en secuencia y complejidad a las que había realizado anteriormente, es decir dentro de sus limitaciones era programable.

ÁLGEBRA DE BOOLE

Álgebra de Boole (también llamada Retículas booleanas) en informáticamatemática, es una estructura algebraica que rigorizan las operaciones lógicas Y, O y NO, así como el conjunto de operaciones unióninterseccióncomplemento.

Se denomina así en honor a George Boole, (2 de noviembre de 18158 de diciembre de 1864), matemático inglés que fue el primero en definirla como parte de un sistema lógico a mediados del siglo XIX. El álgebra de Boole fue un intento de utilizar las técnicas algebraicas para tratar expresiones de la lógica proposicional. En la actualidad, el álgebra de Boole se aplica de forma generalizada en el ámbito del diseño electrónico. Claude Shannon fue el primero en aplicarla en el diseño de circuitos de conmutación eléctrica biestables, en 1948.

DEFINICIÓN

Un álgebra de Boole es una tripleta. Donde, + y  son operaciones internas en  y además para cualquier  se cumplen los siguientes axiomas:

1. Propiedad conmutativa:

2. Propiedad asociativa:

3. Propiedad distributiva:

4. Propiedad de los neutros. Existen  tales que:

5. Propiedad de los opuestos. Existe  tal que:

  1. EDAD MEDIA

TARJETA PERFORADA

La tarjeta perforada es una cartulina con unas determinaciones al estar perforadas, lo que supone un código binario. Estos fueron los primeros medios utilizados para ingresar información e instrucciones a un computador en los años 19601970. Las tarjetas perforadas no solo fueron utilizadas en la informática, sino también por Joseph Marie Jacquard en los telares (de hecho, la informática adquirió las tarjetas perforadas de los telares). Con la misma lógica de perforación o ausencia de perforación, se utilizaron las cintas perforadas.

Actualmente las tarjetas perforadas han caído en el reemplazo por medios magnéticos y ópticos de ingreso de información. Sin embargo, muchos de los dispositivos de almacenamiento actuales, como por ejemplo el CD-ROM también se basa en un método similar al usado por las tarjetas perforadas, aunque por supuesto los tamaños, velocidades de acceso y capacidad de los medios actuales no admiten comparación con las viejas tarjetas.

HISTORIA

Las tarjetas perforadas fueron usadas por primera vez alrededor de 1725 por Basile BouchonJean-Baptiste Falcon como una forma más robusta de los rollos de papel perforados usados en ese entonces para controlar telares textiles en Francia. Esta técnica fue enormemente mejorada por Joseph Marie Jacquard en su telar de Jacquard en 1801. Charles Babbage lanzó la idea del uso de las tarjetas perforadas como un modo de controlar una calculadora mecánica que él mismo diseñó. Herman Hollerith desarrolló la tecnología de procesamiento de tarjetas perforadas de datos para el censo de los Estados Unidos de América de 1890 y fundó la compañíaTabulating Machine Company (1896) la cual fue una de las tres compañías que se unieron para formar laComputing Tabulating Recording Corporation (CTR), luego renombrada IBM. IBM manufacturó y comercializó una variedad de unidades máquinas de registro para crear, ordenar, y tabular tarjetas perforadas, aún luego de expandirse en las computadoras sobre el final de la década del 50. IBM desarrolló la tecnología de la tarjeta perforada como una herramienta poderosa para el procesamiento de datos empresariales y produjo una línea extensiva de unidades máquinas de registro de propósito general. Para el año 1950, las tarjetas IBM y las unidades máquinas de registro IBM se habían vuelto indispensables en la industria y el gobierno. “Do not fold, spindle or mutilate” (“No doblar, enrollar o mutilar”) es una versión generalizada de la advertencia que aparecía en algunas tarjetas perforadas, que se convirtió en un lema en la era de la post-Segunda Guerra Mundial (aunque mucha gente no tenía idea de lo que significaba spindle)

Una tarjeta perforada típica para guardar datos, en blanco.

Desde 1900 hasta 1950, las tarjetas perforadas fueron el primer medio para el ingreso y almacenamiento de datos, y el procesamiento en computación institucional y según los archivos de IBM: “Por 1937 [...] IBM tenía 32 prensas trabajando en Endicott, N.Y., imprimiendo, cortando y apilando de 5 a 10 millones de tarjetas perforadas cada día”.1 Las tarjetas perforadas eran usadas incluso como billetes legales, así como cheques y bonos de ahorro del gobierno de los Estados Unidos de América. Durante la década del 60, las tarjetas perforadas fueron gradualmente reemplazadas como primera medida por almacenamiento de datos en cintas magnéticas, mientras computadoras mejores y más capaces se hicieron disponibles. Las tarjetas perforadas fueron todavía comúnmente usadas para ingreso de datos y programación hasta mediados de la década del 70, cuando la combinación de almacenamiento de discos magnéticos de más bajo costo y interactivas asequibles sobre minicomputadoras más baratas hicieron obsoletas a las tarjetas perforadas también para este rol. Sin embargo, su influencia vive a través de muchas convenciones de estándares y formatos de archivos. Las terminales que reemplazaron a las tarjetas perforadas, por ejemplo la IBM 3270, mostraba 80 columnas de texto en modo texto, para compatibilidad con el software existente. Algunos programas todavía operan con la convención de 80 columnas de texto, aunque cada vez menos, mientras más nuevos sistemas emplean interfaz gráfica de usuario con tipos de fuentes de ancho variable.

Hoy en día, las tarjetas perforadas son mayormente obsoletas y reemplazadas por otros métodos de almacenamiento, excepto por aplicaciones especializadas.

FORMATOS DE TARJETAS

En las primeras aplicaciones de las tarjetas perforadas todas usaron disposiciones de tarjetas específicamente diseñadas y su utilidad al principio no se sabía para que era. No fue sino hasta alrededor de 1928 que las tarjetas perforadas y las máquinas fueron hechas “de propósito general”. Los bits rectangulares, circulares u ovalados de papel, son llamados chad (recientemente, chads) orchips (en la jerga IBM). Los datos multicaracter, tales como palabras o números grandes, eran guardados en columnas adyacentes de la tarjeta, conocidas como campos. Un grupo de tarjetas es llamado mazo. Una esquina superior de la tarjeta era normalmente cortada, de manera que las tarjetas que no estuvieran orientadas correctamente, o tarjetas que tuvieran diferentes cortes de esquinas, pudieran ser fácilmente identificadas. Las tarjetas eran comúnmente impresas, para que la posición de la fila y columna de una perforación pudiera ser identificada. Para algunas aplicaciones, la impresión podría tener incluidos campos, nombrados y marcados por líneas verticales, logotipos, y más

Tarjeta estándar 5081 de un fabricante no-IBM.

Una de las tarjetas perforadas más comúnmente impresas fue la IBM 5081. Es más, era tan común que otros vendedores de tarjetas usaban el mismo número (ver imagen a la derecha) y hasta los usuarios conocían ese número.

FORMATOS DE TARJETAS PERFORADAS DE HOLLERITH

La tarjeta perforada patentada por Herman Hollerith el 8 de junio de 1887 y usada en las máquinas tabuladoras mecánicas en el censo de 1890 de Estados Unidos de América, era un trozo de cartulina de alrededor de 90mm por 215mm, con orificios redondos y 24 columnas. Esta tarjeta puede ser vista en el sitio de Historia de la Computación de la Universidad de Columbia.2

Esta tarjeta tenía el mismo tamaño que un dólar estadounidense en aquella época. Las razones sugeridas para hacerla de este tamaño eran las siguientes:

Hollerit sintió que la gente las trataría con respeto si las hacía de ese tamaño.

Las cajas de este tamaño ya estaban disponibles a precios baratos, diseñadas para los bancos para guardar el dinero.

El equipamiento para manejar estos tamaños de papel estaban disponibles para la Oficina del Censo de los Estados Unidos como préstamo del Departamento del Tesoro de los Estados Unidos

Pero no hay evidencia real que pruebe que alguna de estas sugerencias sea correcta.

Las tarjetas perforadas de 45 columnas de Hollerith están ilustradas en The application of the Hollerith Tabulating Machine to Brown’s Tables of the Moon de Comrie.

EL ARITMÓMETRO ELECTROMECÁNICO

1920

El “aritmómetro electromecánico”, consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones. Una vez realizado el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora digital.

CALCULADORA DE SECUENCIA AUTOMÁTICA

1939

En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.

  1. EDAD MODERNA

PRIMERA GENERACION: 1951 PRIMERA COMPUTADORA COMERCIAL, UNIVAC I

UNIVAC I en Franklin Life Insurance Company

Estación de control de la UNIVAC I

La UNIVAC I (Universal Automatic Computer IComputadora Automática Universal I) fue la primera computadora comercial fabricada en Estados Unidos. Fue diseñada principalmente por J. Presper EckertJohn William Mauchly, también autores de la segunda computadora electrónica estadounidense, laENIAC. Durante los años previos a la aparición de sus sucesoras, la máquina fue simplemente conocida como “UNIVAC“. Se donó a la universidad de Harvard y Pensilvania. Fue la primera computadora fabricada para un proposito no militar, desde el año 1951.

HISTORIA

Las computadoras UNIVAC I fueron construidas por la división UNIVAC de Remington Rand (sucesora de la Eckert-Mauchly Computer Corporation, comprada por Rand en 1951). Su valor era de 1 millón a 1 millón y medio, que actualizado seria de 6 millones y medio a 9 millones. Era una computadora que pesaba 16.000 libras (7.257 kg aproximadamente), estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por segundo. Era una computadora que procesaba los dígitos en serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo. Funcionaba con un reloj interno con una frecuencia de 2,25 MHz, tenía memorias de mercurio. Estas memorias no permitían el acceso inmediato a los datos, pero tenían más fiabilidad que los tubos de rayos catódicos, que son los que se usaban normalmente.

El primer UNIVAC fue entregado a la Oficina de Censos de los Estados Unidos (United States Census Bureau) el 31 de marzo de 1951 (59 años) y fue puesto en servicio el 14 de junio de ese año [1]. El quinto, construido para la Comisión de Energía Atómica (United States Atomic Energy Commission) fue usado por la cadena de televisión CBS para predecir la elección presidencial de 1952. Con una muestra de apenas el 1% de la población votante predijo correctamente que Eisenhower ganaría, algo que parecía imposible.

Además de ser la primera computadora comercial estadounidense, el UNIVAC I fue la primera computadora diseñada desde el principio para su uso en administración y negocios (es decir, para la ejecución rápida de grandes cantidades de operaciones aritméticas relativamente simples y transporte de datos, a diferencia de los cálculos numéricos complejos requeridos por las computadoras científicas). UNIVAC competía directamente con las máquinas de tarjeta perforada hechas principalmente por IBM; curiosamente, sin embargo, inicialmente no dispuso de interfaz para la lectura o perforación de tarjetas, lo que obstaculizó su venta a algunas compañías con grandes cantidades de datos en tarjetas debido a los potenciales costos de conversión. Esto se corrigió eventualmente, añadiéndole un equipo de procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a cinta y el convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las tarjetas y las cintas magnéticas que empleaba UNIVAC nativamente.

Los primeros contratos para la venta de UNIVACs fueron realizados con instituciones del gobierno de los Estados Unidos, tales como la oficina de censos, la Fuerza Aérea, y el servicio de mapas del ejército; también contrataron sus servicios particulares, como la ACNielsen Company y la Prudential Insurance Company. El octavo UNIVAC, la primera venta efectiva para uso comercial, fue instalado en enero de 1954, en la división de electrodomésticos de General Electric para gestionar los salariosDuPont compró el duodécimo UNIVAC, que fue entregado en septiembre de 1954. La Pacific Mutual Insurance recibió un UNIVAC en agosto de 1955, y otras compañías de seguros pronto siguieron ese camino. Mientras tanto, para uso oficial, la oficina de censos compró un segundo UNIVAC en octubre de 1954.

Originalmente valorado en $159.000 de la época, el UNIVAC aumentó su precio hasta costar entre $1.250.000 y $1.500.000. En total se fabricaron y entregaron 46 unidades. UNIVAC resultó demasiado costosa para la mayoría de las universidades, y Sperry Rand —, a diferencia de compañías como IBM—, no tenía el suficiente respaldo financiero para donar muchas unidades; sin embargo un ejemplar se donó a la Universidad de Harvard en 1956, otro a la Universidad de Pensilvania en 1957, y uno a la Case Western Reserve University en ClevelandOhio ese mismo año.

Algunos sistemas UNIVAC permanecieron en servicio durante mucho tiempo, de hecho bastante después de haberse vuelto obsoletos. La Oficina de Censos utilizó sus dos sistemas hasta 1963, acumulando doce y nueve años de servicio respectivamente; Sperry Rand utilizó sus propias dos unidades en Buffalo, Nueva York, hasta 1968. La compañía de seguros Life and Casualty of Tennessee utilizó su sistema hasta 1970, totalizando más de trece años de servicio.

SEGUNDA GENERACION: 1957 PRIMER LENGUAJE DE PROGARAMACION, FORTRAN

El Fortran (previamente FORTRAN)1 (del inglés Formula Translating System) es un lenguaje de programación alto nivel de propósito general,2 procedimental3imperativo, que está especialmente adaptado al cálculo numérico y a la computación científica. Desarrollado originalmente por IBM en 1957 para el equipo IBM 704, y usado para aplicaciones científicas y de ingeniería, el FORTRAN vino a dominar esta área de la programación desde el principio y ha estado en uso continuo por más de medio siglo en áreas de cómputo intensivo tales como la predicción numérica del tiempoanálisis de elementos finitosdinámica de fluidos computacional (CFD), física computacional, y química computacional. Es una de los lenguajes más populares en el área de la computación de alto rendimiento y es el lenguaje usado para programas que evalúan el desempeño (benchmark) y el ranking de los supercomputadores más rápidos del mundo.4

El FORTRAN (una palabra compuesta, derivada de The IBM Mathematical Formula Translating System) abarca un linaje de versiones, cada una de las cuales evolucionó para añadir extensiones al lenguaje mientras que usualmente retenía compatibilidad con las versiones previas. Versiones sucesivas han añadido soporte para procesamiento de datos basados en caracteres (FORTRAN 77),programación de arreglosprogramación modularprogramación orientada a objetos (Fortran 90/95), y programación genérica (Fortran 2003).

HISTORIA

Un mainframe IBM 704

Código FORTRAN en una tarjeta perforada, mostrando el uso especializado de las columnas 1-5, 6 y 73-80.

A finales de 1956, John W. Backus sometió una propuesta a sus superiores en IBM para desarrollar una alternativa más práctica al ensamblador para programar el computador central IBM 704. El histórico equipo FORTRAN de Backus consistió en los programadores Richard Goldberg, Sheldon F. Best, Harlan Herrick, Peter Sheridan, Roy Nutt, Robert Nelson, Irving Ziller, Lois Haibt y David Sayre.5

A mediados de 1954 fue terminada una especificación del borrador para The IBM Mathematical Formula Translating System. El primer manual para el FORTRAN apareció en octubre de 1956, porque los clientes eran reacios a usar un lenguaje de programación de alto nivel a menos que su compilador pudiera generar código cuyo desempeño fuera comparable al de un código hecho a mano en lenguaje ensamblador.

Mientras que la comunidad era escéptica en que este nuevo método pudiera posiblemente superar la codificación a mano, éste redujo por un factor de 20 al número de sentencias de programación necesarias para operar una máquina, y rápidamente ganó aceptación. Durante una entrevista en 1979 con Think, la revista de los empleados de IBM, el creador, John Backus, dijo, “Mucho de mi trabajo ha venido de ser perezoso. No me gustaba escribir programas, y por eso, cuando estaba trabajando en el IBM 701 escribiendo programas para computar trayectorias de misiles, comencé el trabajo sobre un sistema de programación para hacer más fácil escribir programas”.6

El lenguaje fue ampliamente adoptado por los científicos para escribir programas numéricamente intensivos, que incentivó a los escritores de compiladores a producir compiladores que pudieran generar un código más rápido y más eficiente. La inclusión en el lenguaje de un tipo de datos y de la aritmética de números amplió la gama de aplicaciones para las cuales el lenguaje se adaptaba especialmente e hizo al FORTRAN especialmente adecuado para aplicaciones técnicas tales como la ingeniería eléctrica.

Hacia 1960, las versiones de FORTRAN estaban disponibles para los computadores IBM 7096501620, y 7090. Significativamente, la cada vez mayor popularidad del FORTRAN estimuló a fabricantes de computadores de la competencia a proporcionar compiladores FORTRAN para sus máquinas, así que por 1963 existían más de 40 compiladores FORTRAN. Por estas razones, el FORTRAN es considerado ser el primer lenguaje de programación ampliamente usado soportado a través de una variedad de arquitecturas de computador.

El desarrollo del FORTRAN fue paralelo a la temprana evolución de la tecnología del compilador. De hecho, muchos avances en la teoría y el diseño de compiladores fueron motivados específicamente por la necesidad de generar código eficiente para los programas en FORTRAN.

TERCERA GENERACION
Circuito Integrado (CHIPS)
(1965 – 1970)

  1. Características
  2. IBM 360
  3. Hechos históricos

Características:

  • Circuito integrado desarrollado en 1958 por Jack Kilbry.
  • Circuito integrado: Miniaturización y reunión de centenares de elementos en una plaquita de silicio    (chips).
  • Menor consumo de energía.
  • Apreciable reducción en espacio.
  • Aumenta su flexibilidad.
  • Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.
  • Generalización de lenguajes de programación de alto nivel.
  • Compatibilidad para compartir software entre diversos equipos.
  • Ampliación de aplicaciones: en Procesos Industriales, en la Educación, en el Hogar, Agricultura, Administración, Juegos, etc.
  • Computadoras en Serie 360 IBM.
  • Teleproceso: Se instalan terminales remotas, que accesen la Computadora central para realizar operaciones, extraer o introducir información en Bancos de Datos, etc…
  • Multiprogramación: Computadora que pueda procesar varios Programas de manera simultánea.
  • Tiempo Compartido: Uso de una computadora por varios clientes a tiempo compartido, pues el aparato puede discernir entre diversos procesos que realiza simultaneamente.
  • La Minicomputadora.

IBM 360 (1964)
IBM 360

Estos equipos, a pesar de que no fueron los únicos que se fabricaron en esta generación, la simbolizan debido a su enorme aceptación en el mercado de las grande instituciones estatales y privadas de todo el mundo. Las IBM 360 estaban basadas en circuitos integrados, la alimentación de la información era realizada por medio de tarjetas perforadas, previamente tabuladas y su almacenamiento se hacía en cintas magnéticas. IBM lanzó muchos modelos de esta serie como la IBM 360 20/30/40/50/65/67/75/85/90/195. Su sistema operativo simplemente se llama OS (Operating System) y los lenguajes que manejaron fueron el FORTRAN, ALGOL y COBOL:.

Hechos históricos:

  • 1964: Control Data Corporation introduce la CDC 6000, que emplea palabras de 60-bits y procesamiento de datos en paralelo. Luego vino la CDC 6600, una de las más poderosas computadoras por varios años. Fué diseñada por Seymour Cray.
  • 1964: BASIC (Beginners All-purpose Symbolic Instruction Language) es creado por Tom Kurtz y John Kemeny de Dartmouth.
  • 1964: Honeywell presenta su modelo H-200 para competir con los sistemas IBM 1400.
  • 1964: NCR introduce la 315/100.
  • 1965: Digital Equipment despachas su primera minicomputadora la PDP-8.
  • 1966: Honeywell adquiere Computer Control Company, un fabricante de minicomputadoras.
  • 1966: Scientific Data Systems (SDS) introduce su modelo Sigma 7.
  • 1966: Texas Instruments lanza su primera calculadora de bolsillo de estado sólido.
  • 1967: DEC introduce la computadora PDP-10.
  • 1967: A.H. Bobeck de los laboratorios Bell Laboratories desarrolla la memoria burbuja.
  • 1967: Burroughs despacha el modelo B3200.
  • 1967: El primer número de Computerworld es publicado.
  • 1968: Univac presenta su computadora modelo 9400.
  • 1968: Integrated Electronics (Intel) Corp. es fundada por Gordon Moore y Robert Noyce.
  • 1969: El compilador PASCAL es escrito po Nicklaus Wirth e instalado en la CDC 6400.
  • 1970: DEC lanza su primera minicomputadora de 16 bits. La PDP-11/20.
  • 1970: Data General despacha la SuperNova.
  • 1970: Honeywell adquiere la división de computadoras de General Electric.
  • 1970: Xerox Data Systems introduce la CF-16A.

CUARTA GENERACION: MICROPROCESADORES

Procesador AMD Athlon 64 X2 conectado en el zócalo de una placa base.

El microprocesador, o simplemente procesador, es el circuito integrado central y más complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar por analogía como el “cerebro” de una computadora.

El procesador es un circuito integrado constituido por millones de componentes electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.

Desde el punto de vista funcional es, básicamente, el encargado de realizar toda operación aritmético-lógica, de control y de comunicación con el resto de los componentes integrados que conforman un PC, siguiendo el modelo base de Von Neumann. También es el principal encargado de ejecutar los programas, sean de usuario o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel, realizando operaciones elementales, básicamente, las aritméticas y lógicas, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control y una unidad aritmético lógica (ALU), aunque actualmente todo microprocesador también incluye una unidad de cálculo en coma flotante, (también conocida como coprocesador matemáticoFPU), que permite operaciones por hardware con números decimales, elevando por ende notablemente la eficiencia que proporciona sólo la ALU con el cálculo indirecto a través de los clásicos números enteros.

El microprocesador está conectado, generalmente, mediante un zócalo específico a la placa base. Normalmente para su correcto y estable funcionamiento, se le adosa un sistema de refrigeración, que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobrealuminio, y de uno o más ventiladores que fuerzan la expulsión del calor absorbido por el disipador; entre éste último y la cápsula del microprocesador suele colocarse pasta térmica para mejorar la conductividad térmica. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.

La “velocidad” del microprocesador suele medirse por la cantidad de operaciones por ciclo de reloj que puede realizar y en los ciclos por segundo que este último desarrolla, o también en MIPS. Está basada en la denominada frecuencia de reloj (oscilador). La frecuencia de reloj se mide Hertzios, pero dada su elevada cifra se utilizan múltiplos, como el megahertzio o el gigahertzio.

Cabe destacar que la frecuencia de reloj no es el único factor determinante en el rendimiento, pues sólo se podría hacer comparativa entre dos microprocesadores de una misma arquitectura.

Es importante notar que la frecuencia de reloj efectiva no es el producto de la frecuencia de cada núcleo físico del procesador por su número de núcleos, es decir, uno de 3 GHz con 6 núcleos físicos nunca tendrá 18 GHz, sino 3 GHz, independientemente de su número de núcleos.

Hay otros factores muy influyentes en el rendimiento, como puede ser su memoria caché, su cantidad de núcleos, sean físicos o lógicos, el conjunto de instrucciones que soporta, su arquitectura, etc.; por lo que sería difícilmente comparable el rendimiento de dos procesadores distintos basándose sólo en su frecuencia de reloj.

Un computador de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento.

Estos últimos años ha existido una tendencia de integrar el mayor número de elementos del PC dentro del propio procesador, aumentando así su eficiencia energética y su rendimiento. Una de las primeras integraciones, fue introducir la unidad de coma flotante dentro del encapsulado, que anteriormente era un componente aparte y opcional situado también en la placa base, luego se introdujo también el controlador de memoria, y más tarde un procesador gráfico dentro de la misma cámara, aunque no dentro del mismo encapsulado. Posteriormente se llegaron a integrar completamente en el mismo encapsulado (Die).

Respecto a esto último, compañías tales como Intel ya planean integrar el Southbridge dentro del procesador, eliminando completamente ambos chipsets de la placa.

También la tendencia general, más allá del mercado del PC, es integrar varios componentes en un mismo chip para dispositivos tales como Tablet PCteléfonos móviles, videoconsolas portátiles, etc. A estos circuitos integrados “todo en uno” se les conoce como System on Chip; por ejemplo nVidia Tegra o Samsung Hummingbird, ambos integran procesador, GPUcontrolador de memoria dentro de un mismo chip.

HISTORIA DE LOS MICROPROCESADORES

LA EVOLUCIÓN DEL MICROPROCESADOR

El microprocesador es producto de la evolución de distintas tecnologías predecesoras, surgido de la computación y la tecnología semiconductora; en los inicios no existían los procesadores tal como los conocemos hoy. El inicio de su desarrollo data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años 70, produciendo el primer microprocesador.

Tales tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras específicas para aplicaciones militares. En la posguerra, a mediados de la década de 1940, la computación digital emprendió un fuerte desarrollo también para propósitos científicos y civiles.

La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de componentes de estado sólido. En 1948 en los laboratorios Bell crearon el transistor.

En los años 1950, aparecieron las primeras computadoras digitales de propósito general. Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos activos. Tarjetas o módulos de tubos al vacío componían circuitos lógicos básicos, tales como compuertasflip-flops. Ensamblando compuertas y flip-flops en módulos se construyó la computadora electrónica (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras.

Para la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción de una computadora digital precisa numerosos circuitos o dispositivos electrónicos. Un paso trascendental en el diseño de la computadora fue hacer que el dato fuera almacenado en memoria, como una forma de palabra digital. La idea de almacenar programas en memoria para luego ejecutarlo fue de fundamental importancia (Arquitectura de von Neumann).

La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio, de bajo costo y con métodos de producción masiva, hizo del transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital tuvo un gran avance el reemplazo del tubo al vacío por el transistor, a finales de la década de 1950.

A principios de la década de 1960, el estado de arte en la construcción de computadoras de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).

A mediados de los años 1960 se producen las familias de circuitos de lógica digital, dispositivos en escala SSI y MSI que corresponden a baja y mediana escala de integración de componentes. A finales de los años 1960 y principios de los 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible incrementar la cantidad de componentes en los circuitos integrados. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria eran un buen ejemplo.

Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando uno que fue llamado microprocesador, unión de las palabras “Micro” del griego μικρο-, “pequeño”, y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micrométrica a manométrica; y además, es, sin duda, un procesador.

El primer microprocesador fue el Intel 4004,1 producido en 1971. Se desarrolló originalmente para una calculadora, y resultó revolucionario para su época. Contenía 2.300 transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo, trabajando a una frecuencia de reloj de alrededor de 700KHz.

El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados de 1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300 transistores y podía procesar a frecuencias máximas de 800Khz.

El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo trabajando a alrededor de 2MHz.

Los primeros microprocesadores de 16 bits fueron el 8086 y el 8088, ambos de Intel. Fueron el inicio y los primeros miembros de la popular arquitectura x86, actualmente usada en la mayoría de los computadores. El chip 8086 fue introducido al mercado en el verano de 1978, en tanto que el 8088 fue lanzado en 1979. Llegaron a operar a frecuencias mayores de 4Mhz.

El microprocesador elegido para equipar al IBM Personal Computer/AT, que causó que fuera el más empleado en los PC-AT compatibles entre mediados y finales de los años 80 fue el Intel 80286 (también conocido simplemente como 286); es un microprocesador de 16 bits, de la familia x86, que fue lanzado al mercado en 1982. Contaba con 134.000 transistores. Las versiones finales alcanzaron velocidades de hasta 25 MHz.

Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de Intel, fabricado a mediados y fines de la década de 1980; en sus diferentes versiones llegó a trabajar a frecuencias del orden de los 40Mhz.

El microprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium surgió en 1993 con una frecuencia de trabajo de 66Mhz. El procesador Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito, declarándose como el más rápido del mundo, en su época. Llegó a 1Ghz de frecuencia hacia el año 2001. Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de circulación, el Alpha aun encabezaba la lista de los computadores más rápidos de Estados Unidos.2

Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de transistores, como es en el caso de las serie Core i7, y pueden operar a frecuencias normales algo superiores a los 3GHz (3000MHz).

Intel Celeron “Coppermine 128″ de 600 MHz.

Intel Pentium III.

Seguidamente se expone una lista ordenada cronológicamente de los microprocesadores más populares que fueron surgiendo.

1971: El Intel 4004

El 4004 fue el primer microprocesador del mundo, creado en un simple chip, y desarrollado por Intel. Era un CPU de 4 bits y también fue el primero disponible comercialmente. Este desarrollo impulsó la calculadora de Busicom[1] y dio camino a la manera para dotar de “inteligencia” a objetos inanimados, así como la computadora personal.

1972: El Intel 8008

Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.

1974: El SC/MP

El SC/MP desarrollado por National Semiconductor, fue uno de los primeros microprocesadores, y estuvo disponible desde principio de 1974. El nombre SC/MP (popularmente conocido como “Scamp”) es el acrónimo de Simple Cost-effective Micro Processor (Microprocesador simple y rentable). Presenta un bus de direcciones de 16 bits y un bus de datos de 8 bits. Una característica avanzada para su tiempo, es la capacidad de liberar los buses, a fin de que puedan ser compartidos por varios procesadores. Este procesador fue muy utilizado, por su bajo costo, y provisto en kits, para el propósitos educativos, de investigación y para el desarrollo de controladores industriales de diversos propósitos.

1974: El Intel 8080

EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial “Starship” del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que ejecutaban el sistema operativo [[CP/M]|CP/M-80]. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de u$s395. En un periodo de pocos meses, se vendieron decenas de miles de estas PC.

1975: Motorola 6800

Se fabrica, por parte de Motorola, el Motorola MC6800, más conocido como 6800. Fue lanzado al mercado poco después del Intel 8080. Su nombre proviene de qué contenía aproximadamente 6800 transistores. Varios de los primeras microcomputadoras de los años 1970 usaron el 6800 como procesador. Entre ellas se encuentran la SWTPC 6800, que fue la primera en usarlo, y la muy conocida Altair 680. Este microprocesador se utilizó profusamente como parte de un kit para el desarrollo de sistemas controladores en la industria. Partiendo del 6800 se crearon varios procesadores derivados, siendo uno de los más potentes el Motorola 6809

1976: El Z80

La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits construido en tecnología NMOS, y fue basado en el Intel 8080. Básicamente es una ampliación de éste, con lo que admite todas sus instrucciones. Un año después sale al mercado el primer computador que hace uso del Z80, el Tandy TRS-80Model 1 provisto de un Z80 a 1,77 MHz y 4 KB de RAM. Es uno de los procesadores de más éxito del mercado, del cual se han producido numerosas versiones clónicas, y sigue siendo usado de forma extensiva en la actualidad en multitud de sistemas embebidos. La compañía Zilog fue fundada 1974 por Federico, quien fue diseñador jefe del microprocesador Intel 4004 y posteriormente del Intel 8080.

1978: Los Intel 8086 y 8088

Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que las PC de IBM dieran un gran golpe comercial con el nuevo producto con el 8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a la lista de las 500 mejores compañías, en la prestigiosa revista Fortune, y la misma nombró la empresa como uno de Los triunfos comerciales de los sesenta.

1982: El Intel 80286

El 80286, popularmente conocido como 286, fue el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de microprocesadores de Intel. Luego de 6 años de su introducción, había un estimado de 15 millones de PC basadas en el 286, instaladas alrededor del mundo.

1985: El Intel 80386

Este procesador Intel, popularmente llamado 386, se integró con 275000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, con capacidad para multitarea y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar operativos que usaran memoria virtual.

1985: El VAX 78032

El microprocesador VAX 78032 (también conocido como DC333), es de único ship y de 32 bits, y fue desarrollado y fabricado por Digital Equipment Corporation(DEC); instalado en los equipos MicroVAX II, en conjunto con su ship coprocesador de coma flotante separado, el 78132, tenían una potencia cercana al 90% de la que podía entregar el minicomputador VAX 11/780 que fuera presentado en 1977. Este microprocesador contenía 125000 transistores, fue fabricado en tecnología ZMOS de DEC. Los sistemas VAX y los basados en este procesador fueron los preferidos por la comunidad científica y de ingeniería durante la década del 1980.

1989: El Intel 80486

La generación 486 realmente significó contar con una computadora personal de prestaciones avanzadas, entre ellas, un conjunto de instrucciones optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria caché unificada, todo ello integrado en el propio chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 – i387 operando a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las operaciones de cálculo. Usando una unidad FPU las operaciones matemáticas más complejas son realizadas por el coprocesador de manera prácticamente independiente a la función del procesador principal.

1991: El AMD AMx86

Procesadores fabricados por AMD 100% compatible con los códigos de Intel de ese momento, llamados “clones” de Intel, llegaron incluso a superar la frecuencia de reloj de los procesadores de Intel y a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586.

1993: PowerPC 601

Es un procesador de tecnología RISC de 32 bits, en 50 y 66MHz. En su diseño utilizaron la interfaz de bus del Motorola 88110. En 1991IBM busca una alianza con Apple y Motorola para impulsar la creación de este microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo fue quitar el dominio qué Microsoft e Intel tenían en sistemas basados en los 80386 y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la familia de procesadores de arquitectura de tipo RISC, que fue desarrollada por la alianza AIM. Los procesadores de esta familia son utilizados principalmente en computadores Macintosh de Apple y su alto rendimiento se debe fuertemente a su arquitectura tipo RISC.

1993: El Intel Pentium

El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez, gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX (u) y el otro equivalente a 486SX (u). Además, estaba dotado de un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas, y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no sólo brindaban al usuario un más eficiente manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que también se ofrecían en velocidades de hasta 233 MHz Se incluyó una versión de 200 MHz y la más básica trabajaba a alrededor de 166 MHz de frecuencia de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.

1994: EL PowerPC 620

En este año IBM y Motorola desarrollan el primer prototipo del procesador PowerPC de 64 bit[2], la implementación más avanzada de la arquitectura PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado para su utilización en servidores, y especialmente optimizado para usarlo en configuraciones de cuatro y hasta ocho procesadores en servidores de aplicaciones de base de datosvídeo. Este procesador incorpora siete millones de transistores y corre a 133 MHz Es ofrecido como un puente de migración para aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin tener que renunciar a ejecutar aplicaciones de 32 bits.

1995: EL Intel Pentium Pro

Lanzado al mercado para el otoño de 1995, el procesador Pentium Pro (profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores y los programas y aplicaciones para estaciones de trabajo (de redes) impulsaron rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo era más lento que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. El procesador Pentium Pro estaba compuesto por alrededor de 5,5 millones de transistores.

1996: El AMD K5

Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISCcon una Unidad x86- decodificadora, transforma todos los comandos x86 (de la aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando con poco éxito, se retrasó 1 año de su salida al mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de la competencia, y por tanto, los fabricantes de PC dieron por sentado que era inferior.

1996: Los AMD K6 y AMD K6-2

Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador casi a la altura del Pentium II pero por un precio muy inferior. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los más de 500 MHz y con el juego de instrucciones MMX, que ya se han convertido en estándares.

Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para seguir compitiendo con los Pentium II, siendo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introduce un juego de instrucciones SIMD denominado 3DNow!

1997: El Intel Pentium II

Un procesador de 7,5 millones de transistores, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, revisar y compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica; el enviar vídeo a través de las líneas normales del teléfono mediante Internet se convierte en algo cotidiano.

1998: El Intel Pentium II Xeon

Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo y servidores que utilizan aplicaciones comerciales exigentes, como servicios de Internet, almacenamiento de datos corporativos, creaciones digitales y otros. Pueden configurarse sistemas basados en este procesador para integrar de cuatro o ocho procesadores trabajando en paralelo, también más allá de esa cantidad.

1999: El Intel Celeron

Continuando la estrategia, Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Celeron es el nombre que lleva la línea de de bajo costo de Intel. El objetivo fue poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.

1999: El AMD Athlon K7 (Classic y Thunderbird)

Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, pero se le mejoró substancialmente el sistema de coma flotante (ahora con 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le incrementó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento.

El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.

1999: El Intel Pentium III

El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las extensiones de SIMD que refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (con muchos gráficos), tiendas virtuales y transmitir archivos video de alta calidad. El procesador se integra con 9,5 millones de transistores, y se introdujo usando en él tecnología 250 nanómetros.

1999: El Intel Pentium III Xeon

El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidores, y añade una actuación mejorada en las aplicaciones del comercio electrónico e informática comercial avanzada. Los procesadores incorporan mejoras que refuerzan el procesamiento multimedia, particularmente las aplicaciones de vídeo. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando el desempeño significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.

2000: EL Intel Pentium 4

Este es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

2001: El AMD Athlon XP

Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vió que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird se puede mencionar la pre recuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.

2004: El Intel Pentium 4 (Prescott)

A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada ‘Prescott’. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1 (el doble que los Northwood), prevención de ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.

2004: El AMD Athlon 64

El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y que el Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits. El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool’n’Quiet,: cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, baja la velocidad del mismo y su tensión se reduce.

2006: EL Intel Core Duo

Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2×2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU Pentium 4/D2. La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPU Core 2, mientras se incrementa la capacidad de procesamiento. Los CPU de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.

2007: El AMD Phenom

Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la vitalización, generando un óptimo rendimiento por vatio. Todas las CPU Phenom poseen características tales como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depende tanto del tiempo de latencia de la RAM), además de compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.

2008: El Intel Core Nehalem

Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue re implementado creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.

2008: Los AMD Phenom II y Athlon II

Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.

Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el procesador binúcleo del mercado. También se lanzan tres Athlon II con sólo Cache L2, pero con buena relación precio/rendimiento. El Amd Athlon II X4 630 corre a 2,8 GHz El Amd Athlon II X4 635 continua la misma línea.

AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que corre a más de 3,2GHz. También AMD lanza la familia Thurban con 6 núcleos físicos dentro del encapsulado

2011: El Intel Core Sandy Bridge

Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G.

Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits, duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se relacione con operación en multimedia. Llegaron la primera semana de Enero del 2011. Incluye nuevo conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12 unidades de ejecución

Ivy Bridge es la mejora de sandy bridge a 22 nm. Se estima su llegada para 2012 y promete una mejora de la GPU, así como procesadores de sexdécuple núcleo en gamas más altas y cuádruple núcleo en las más bajas, abandonándose los procesadores de núcleo doble.

2011: El AMD Fusion

AMD Fusion es el nombre clave para un diseño futuro de microprocesadores Turion, producto de la fusión entre AMDATI, combinando con la ejecución general del procesador, el proceso de la geometría 3D y otras funciones de GPUs actuales. La GPU (procesador gráfico) estará integrada en el propio microprocesador. Se espera la salida progresiva de esta tecnología a lo largo del 2011; estando disponibles los primeros modelos (Ontaro y Zacate) para ordenadores de bajo consumo entre últimos meses de 2010 y primeros de 2011, dejando el legado de las gamas medias y altas (Llano, Brazos y Bulldozer para mediados o finales del 2011)

QUINTA GENRACION: APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL

.

Inteligencia artificial
Otros nombres IA
Campo de aplicación Desarrollo de agentes racionales no vivos
Subárea ciencias de la Computación

Se denomina inteligencia artificial (IA) a la rama de las ciencias de la Computación1 2 3 dedicada al desarrollo de agentes racionales no vivos.

Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y entiéndase a la racionalidad como una capacidad humana que permite pensar, evaluar y actuar conforme a ciertos principios de optimidadconsistencia , para satisfacer algún objetivo o finalidad. De acuerdo al concepto previo, racionalidades más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina.

Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.

Existen distintos tipos de conocimiento y medios de representación del conocimiento, el cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.

También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son:

Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos).

Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.

Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).

Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).

Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano).

También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.

Varios ejemplos se encuentran en el área de control de sistemasplanificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, escritura, reconocimiento y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economíamedicinaingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos.

Posted in Uncategorized | Leave a comment

GUIA DE INFORMATICA DELOS BLOGS

BLOG

Un blog, o en español también una bitácora, es un sitio web periódicamente actualizado que recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea pertinente. El nombre bitácora está basado en los cuadernos de bitácora, cuadernos de viaje que se utilizaban en los barcos para relatar el desarrollo del viaje y que se guardaban en la bitácora. Aunque el nombre se ha popularizado en los últimos años a raíz de su utilización en diferentes ámbitos, el cuaderno de trabajo o bitácora ha sido utilizado desde siempre.

Este término inglés blog o web log proviene de las palabras web y log (‘log’ en inglés = diario). El término bitácora, en referencia a los antiguos cuadernos de bitácora de los barcos, se utiliza preferentemente cuando el autor escribe sobre su vida propia como si fuese un diario, pero publicado en la web (en línea).

LA ESTRUCTURA DE UN BLOG

Tiene los siguientes elementos:

El post o entrada: La parte principal en la que le autor escribe el texto según la finalidad que le dé a su blog (diario personal, opiniones, noticias…).

Comentarios de los visitantes del Blog. La mayor parte de los blogs permiten a los visitantes realizar y dejar publicados comentarios para cada entrada o post. La interacción entradas (posts)- comentarios (comments). Representa todo un sistema de comunicación con los lectores que dejan sus impresiones y enriquecen el post

Su temporalidad. Fijada en hora, día, mes…. para cada post y ligada a la inmediatez de su publicación.

Su clasificación:

Temporal: la clasificación de las entradas por semanas, meses, años…

Temática: clasificada a través de etiquetas y por palabras clave que se asimilen a potenciales búsquedas.

WEB 2.0

El término Web 2.0 (2004–actualidad) está comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones en la web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboración en laWorld Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogsmashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona.

La Web 2.0 está asociada estrechamente con Tim O’Reilly, debido a la conferencia sobre la Web 2.0 de O’Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como “tan sólo una jerga”- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.

WORDPRESS

WordPress es un sistema de gestión de contenido enfocado a la creación de blogs (sitios web periódicamente actualizados). Desarrollado en PHP y MySQL, bajo licencia GPL y código modificable, tiene como fundador a Matt Mullenweg. WordPress fue creado a partir del desaparecido b2/cafelog y se ha convertido junto a Movable Type en el CMS más popular de la blogosfera. Las causas de su enorme crecimiento son, entre otras, su licencia, su facilidad de uso y sus características como gestor de contenidos.

WIKI

Un wiki o una wiki (del hawaiano wiki, ‘rápido’)1 es un sitio web cuyas páginas pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes (), esta palabra se convierte en un «enlace web» a la página wiki.

En una página sobre «alpinismo», por ejemplo, puede haber una palabra como «piolet» o «brújula» que esté marcada como palabra perteneciente a un título de página wiki. La mayor parte de las implementaciones de wikis indican en el URL de la página el propio título de la página wiki (en Wikipedia ocurre así: http://es.wikipedia.org/wiki/Alpinismo), facilitando el uso y comprensibilidad del link fuera del propio sitio web. Además, esto permite formar en muchas ocasiones una coherencia terminológica, generando una ordenación natural del contenido.

La aplicación de mayor peso y a la que le debe su mayor fama hasta el momento ha sido la creación de enciclopedias colectivas, género al que pertenece la Wikipedia. Existen muchas otras aplicaciones más cercanas a la coordinación de informaciones y acciones, o la puesta en común de conocimientos o textos dentro de grupos.

La mayor parte de los wikis actuales conservan un historial de cambios que permite recuperar fácilmente cualquier estado anterior y ver qué usuario hizo cada cambio, lo cual facilita enormemente el mantenimiento conjunto y el control de usuarios nocivos. Habitualmente, sin necesidad de una revisión previa, se actualiza el contenido que muestra la página wiki editada.

¿QUÉ SON LOS MASHUPS?

El término mashup se refiere a una aplicación web creada a partir de contenidos de otras páginas web y  que da como resultado un servicio completo a los usuarios.

No hablamos de espacios online que copian pegan un par de noticias, un par de videos o de fotografías.

Los mashups utilizan varias fuentes de las que captan información, la procesan, y la  adecuan a la página web. Por tanto, crean un valor para los usuarios que la visitan.

A través de una interfaz pública o un sencillo API podemos obtener una base de datos considerable para crear ¡nuestro propio mashup!

¿QUÉ ES EL FORMATO RSS?

RSS (siglas en inglés de Really Simple Syndication, Sindicación Realmente Simple) es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. Oxfam Internacional incorpora este servicio gratuito para que nuestros usuarios conozcan al instante las noticias más relevantes.

¿Por qué es útil el formato RSS?

Es una forma fácil de mantenerse al día de las actualizaciones de uno o varios sitios web sin tener que visitarlos continuamente.

Puedes suscribirte a canales RSS determinados y mantenerte al día sólo de los temas que te interesan.

También puedes usar un canal RSS para extraer automáticamente contenidos de otros sitios web y mostrarlos en el tuyo.

HTML

HTML, siglas de HyperText Markup Language (Lenguaje de Marcado de Hipertexto), es ellenguaje de marcado predominante para la elaboración de páginas web. Es usado para describir la estructura y el contenido en forma de texto, así como para complementar el texto con objetos tales como imágenes. HTML se escribe en forma de “etiquetas”, rodeadas porcorchetes angulares (<,>). HTML también puede describir, hasta un cierto punto, la apariencia de un documento, y puede incluir un script (por ejemplo Javascript), el cual puede afectar el comportamiento de navegadores web y otros procesadores de HTML.

HTML también es usado para referirse al contenido del tipo de MIME text/html o todavía más ampliamente como un término genérico para el HTML, ya sea en forma descendida del XML(como XHTML 1.0 y posteriores) o en forma descendida directamente de SGML (como HTML 4.01 y anteriores).

EL FORMATO JPEG

Uno de los formatos más populares para guardar nuestras imágenes digitales, conozcamos un poco más acerca de su origen, caracaterísticas que lo diferencias de otros formatos de imagen. Iniciemos por comprender de dónde deriva el nombre JPEG, este formato fue creado por Joint Photographic Experts Group, las siglas de este grupo son las que dan el nombre del formato JPEG o también denominado JPG.

PDF

 (Acrónimo del inglés portable document format, formato de documento portátil) es un formato de documentos, desarrollado por la empresa Adobe Systems. Este formato es de tipo compuesto (imagen vectorialmapa de bits y texto).

GENERALIDADES

Está especialmente ideado para documentos susceptibles de ser impresos, ya que especifica toda la información necesaria para la presentación final del documento, determinando todos los detalles de cómo va a quedar, no requiriéndose procesos anteriores de ajuste ni de maquetación.

Posted in Uncategorized | Leave a comment

CORRECIÓN DEL PARCIAL

CORRECION DEL PARCIAL

  1. Marcar con una x la respuesta correcta.
  • El sistema operativo es:
  1. Es el programa o software más importante de un ordenador.
  2. Es el encargado de la seguridad, para que los usuarios no autorizados no tengan acceso al sistema.
  3. Es el que reconoce las herramientas de office.
  4. Las respuestas A y B son correctas.

 

2. Las tareas básicas de un sistema operativo son:

  1. Conexión del teclado, enviar la información a la pantalla.
  2. No perder de vista archivos y directorios en el disco.
  3. Controlar los dispositivos periféricos tales como impresoras, escáner, etc.
  4. Todas las anteriores son correctas.

 

3. Los sistemas operativos más conocidos en el mercado son:

  1. Office, power point y Word.
  2. Excel, word y paint.
  3. Windows, Linux y Macintosh.
  4. Publisher, internet explorer y molliza.

 

4. Escribir V si la afirmación es verdadera y F si es falsa.

  1.    V     El sitio web contiene muchas páginas web.
  2.     V    Un sitio web puede contener una combinación de gráficos, textos, audio, video y otros materiales dinámicos.
  3.    F     Un sitio web es igual que el capítulo de un libro.
  4.     V     Un sitio web público es una página dirigida al público en general, sin restricciones de acceso.
  5.     F     Los sitios interactivos son cuando los usuarios no pueden modificar o añadir nada al sitio.
  6.     V     Los sitios web comerciales están creados para promocionar los negocios de una empresa. Su finalidad es económica.
  7.     V     Los sitios web según su estructura se conocen como: abierta, cerrada y semicerrada.
  8.    F      Los sitios web se clasifican según su objetivo en: interactivo y estáticos.

 

5. Contestar las preguntas:

  1. ¿Qué son los blogs? Es un sitio web que recopila textos o artículos de un autor.
  2. ¿Cuáles son las partes que trae un blog?
  3. ¿Qué es web 2.0? La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología.
  4. ¿Qué es WordPress? Es un sistema de gestión enfocado a la creación de blogs (gratis).
  5. ¿Qué son las wikis, mashups  y folcsomonias? La wiki es un sitio web cuyas páginas pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten.  El término mashups se refiere a una aplicación web creada a partir de contenidos  de otras páginas web y que da como resultado un servicio completo a los usuarios.
  6. ¿Qué son los formatos RSS O ATOM, HTML, JPG, HTPP, PDF? RSS (siglas en inglés de Really Simple Syndication, Sindicación Realmente Simple) es una tecnología que envía automáticamente los titulares de un medio a un programa lector o agregador. HTML, siglas de HyperText Markup Language (Lenguaje de Marcado de Hipertexto), es ellenguaje de marcado predominante para la elaboración de páginas web. Es usado para describir la estructura y el contenido en forma de texto, así como para complementar el texto con objetos tales como imágenes. JPG es uno de los formatos más populares para guardar  nuestras imágenes digitales, este formato fue creado por Joint Photographic Experts Group, las siglas de este grupo son las que dan el nombre del formato JEPG o también denominado JPG. HTPP  El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es el protocolo usado en cada transacción de la Web (WWW). PDF (Acrónimo del inglés portable document format, formato de documento portátil) es un formato de documentos, desarrollado por la empresa Adobe Systems. Esta especialmente ideado para documentos susceptibles de ser impresos, ya especifica toda la información necesaria para la presentación final del documento.

 

6. Definir con sus palabras los siguientes términos:

SISTIO WEB: Un sitio web es un conjunto de archivos llamados páginas web.

PAGINA WEB: Una página web contiene textos y/o gráficos que aparecen como información digital en la pantalla de un ordenador.

BLOG: Es un sitio web que recopila textos o articulos de uno o varios autores.

BITACORA: Es un lugar que, por lo general de forma cilíndrica o prismática a la cubierta de un barco junto a la rueda del timón.

WEB 2.0: Es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final.

INTERNET: Es un conjunto de redes de comunicación.

WINDOWS: Es el nombre de una serie de sistemas operativos desarrollados por Microsoft.  

OFFICE: Es una suite de oficina que abarca e interrelaciona aplicaciones de escritorio, servidores y servicios para los sistemas operativos Microsoft Windows y Mac OS X.

TECLADO: Es un dispositivo periférico de entrada.

MOUSE: El ratón o mouse es un dispositivo apuntador usado para facilitar el manejo de un entorno grafico en un computador.

CPU: Es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos.

SISTEMA OPERATIVO: Es el programa o el conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones.

WORD: Es un software destinado al procesamiento de datos.

Posted in Uncategorized | Leave a comment