lunes, 5 de septiembre de 2016

ADMINISTRACIÓN I: MERCADOTECNIA APLICADA AL CLIENTE 2016 PLANTEL EMSAD "LÁZARO CÁRDENAS"

1. Introducción
No sólo las grandes empresas multinacionales se ven enfrentadas a un nuevo sistema económico y social, la transformación y evolución de los mercados está latente en cada rincón del planeta, hacia una Globalización tendiente a quebrar los límites económicos e incluso geográficos.
Con la introducción del "euro" por ejemplo, como moneda oficial desde 1999; la Unión Europea marcó un hito importante hacia el sueño del "mercado único", gestado hace más de medio siglo en un continente devastado por la Segunda Guerra Mundial y que hoy se perfila como el bloque económico más poderoso del mundo.
Muchos son los beneficios que esta moneda única, ofrece a las economías de los países que la han adoptado; como la eliminación de los costos de transacción, los cuales ahorrarían a la UE. Aproximadamente el 0,5% del PIB comunitario (Unos 6.6 Billones de $Us.). Así mismo, permitirá mayor transparencia en todo el mercado, pero sobre todo atraerá la eliminación de una excesiva variabilidad de los tipos de cambio. /
El uso del "euro" en transición durante tres años, estará vinculado con transacciones de tarjetas de crédito y facturas bancarias, satisfaciendo necesidades de los mercados financieros y, seguirá con ello hasta que el 1º de enero del año 2002 se establezcan las nuevas monedas y billetes y con ello; el "euro" se convierta en moneda única oficial de la Unión europea.
Hacia occidente, también mercados importantes como el MERCOSUR, o el MERCONORTE, empiezan a abrir sus puertas, para permitir la ampliación de sus mercados, su progreso y la satisfacción de sus necesidades comunes. El sueño de muchos americanistas por ver una América Latina integrada en un solo bloque, sería en unos años una realidad; de concretarse la creación del Área de Libre Comercio de las Américas (ALCA) que unirá comercialmente a 34 países de la región, desde Alaska, hasta la Tierra de Fuego y que sería el inicio de un futuro prometedor para 750 millones de latinoamericanos. Ya el gobernante Estadounidense en la Primera Cumbre de las Américas, efectuada en Miami el año 1994; formuló su deseo de crear una sociedad de libre comercio en todo el continente y posteriormente, en la última reunión en Chile, exhortó a los 33 Jefes de Estado de América, entre los cuales por supuesto, se encontraba el nuestro; a consolidar los logros y cimentar las bases para que el año 2005 se haga realidad este anhelado sueño.
Sin embargo, antes de encarar este tipo de arriesgadas proezas; los gobiernos y, principalmente los productores de bienes y servicios, especialmente los de índole económica; que hacen realidad el cincuenta por ciento de la existencia de los mercados, deben estar conscientes de la imperiosa exigencia de satisfacer sus necesidades y las del otro cincuenta por ciento de estos mercados: los consumidores finales, punto de partida y llegada de las empresas.
Los productos y servicios deben llegar en forma adecuada a sus consumidores y, una de las áreas más importantes cubierta por la administración actual, que permite el intercambio de estos bienes y servicios, así como la información entre las organizaciones y los consumidores, es el de la Mercadotecnia. Ésta, sin embargo, aplicada en los negocios, ha tenido algunos inconvenientes al tratar de encontrar una forma de empleo directo con los servicios que son ofrecidos por las empresas. Se podría decir que la mayoría de la gente ve en la Mercadotecnia, un concepto nuevo y algo difuso. Por el contrario. La Mercadotecnia ha existido siempre como un proceso social: desde que se pone un servicio o producto en el mercado, para satisfacer las necesidades del cliente.
Se entiende que este consumidor o "cliente", es el punto vital para cualquier empresa o institución; sin él, no habría una razón de ser para los negocios. Por tanto, conocer a fondo las cada vez más sofisticadas y especializadas necesidades del consumidor, así como encontrar la mejor manera de satisfacerlas con estrategias adecuadas; en una época de mercados cambiantes, es un asunto vital de la supervivencia y prosperidad de las organizaciones. Es esa la base de la mercadotecnia y comunicación: su servicio al cliente, adecuado a las estrategias en las organizaciones de cualquier tamaño.
Por eso, el servicio al cliente debe surgir a partir de la visión de Mercadotecnia, mediante su comunicación con el mismo cliente, en principio catalogada como promoción, orientada a satisfacción de las necesidades del consumidor, con tal de satisfacer las necesidades propias de la empresa.
El servicio al cliente, hoy por hoy, identificado como una fuente de respuestas a las necesidades del mercado y las empresas; debe contemplar una estrategia más dinámica; mas ahora cuando así lo exige el contexto. Por ello, instituciones de servicio sobretodo, como las financieras y las entidades bancarias, deben emprender estos retos, para elevar el nivel de su competitividad en el ámbito internacional.
La tecnología financiera cambiante y su consiguiente equipo, constituyen un impulsor de costos en la Globalización de servicios bancarios, pero es menester pensar también en los mercados sencillos y tradicionales, donde es ineludible todavía que el cliente se aproxime a las oficinas de los bancos.
La banca global tuvo sus raíces en estímulos del mercado, como en el comercio internacional o el estímulo gubernamental del imperialismo y si bien condujo a la administración de vastos territorios; los impulsores gubernamentales, sin embargo, siguen siendo considerables hoy en día debido a que, por razones tanto económicas como políticas, la banca siempre ha estado rígidamente regulada dentro de los mercados domésticos.
No obstante, es posible encontrar todavía instituciones bancarias privadas que luchan por su supervivencia en el país; frente a las diferentes leyes y políticas gubernamentales, y máxime frente a la competencia. Aunque por su lado, hasta no hace mucho en las empresas, la expresión "entrar a servir", se ve utilizada, habitualmente, para indicar que se trabaja como sirviente doméstico. La palabra "Servicio" posee todavía una fuerte conexión con "Sirviente" y "Servilismo", términos que a la mayoría repelen.
Por esta razón, muchas entidades en Bolivia han rechazado este término sustituyendo la palabra "Servicio" por "Atención", como en la frase "Atención al cliente". Ésta, sin embargo, quedará corta en su significado real una vez superados todos los prejuicios, ya que pone énfasis solamente en el aspecto que se refiere estrictamente al comportamiento personal, el cual es sólo una parte de todo el conjunto.
Los pequeños bancos se deben a sus clientes, pero en mayoría carecen en su dirección de una estrategia orientada a los mismos clientes; esto se vislumbra en la falta de información a ellos sobre las ventajas de sus servicios.
Para entrar en nuevos mercados se hace necesario además, diseñar una estrategia de servicio al cliente en estos bancos, a fin de conseguir mantener los clientes habituales que posee y la atracción de nuevos. Criterio bajo el cual descansa una situación problémica indiscutible, basada en un diagnóstico a priori:
·         La falta de una participación masiva en los mercado, por ejemplo, se debe a una carencia de estrategias adecuadas de servicio al cliente, que determinen su forma de llegar a ellos, para mantenerlos como tales. Todo ello por carecer además de una política satisfactoria hacia el consumidor, lo cual se asienta en una visión enraizada en mecanismos obsoletos de administración de mercados y servicio, con enfoques empíricos de Dirección en Mercadotecnia.
·         La falta de información interna y externa en el banco; hace que se incrementen los límites en la comunicación con el cliente interno y/o externo, motivo por el que sin duda, se acentúa la falta de satisfacción al cliente, por lo que éste ignora muchas veces el verdadero compromiso de servicio del Banco, así como las diferentes facilidades en la atención del Banco con él, lo cual, además; no permite el flujo de comunicación del cliente habitual con el que no lo es.
·         Se hace notoria la falta de un programa de aplicación de comunicación y servicio al cliente, para permitir un flujo constante de información entre el medio ambiente, los clientes y el seno mismo de la institución.
·         Creemos en lo imperioso del establecer estrategias de atención y servicio; con una orientación del Banco hacia el servicio mismo que presta al cliente. Indudablemente con esto, podremos hablar de una comunicación adecuada y fluida y evidentemente de una "satisfacción de las necesidades de sus clientes", y seguramente la atracción de otros muchos más.
Analizando detenidamente el acápite anterior e identificados estos hechos y sus explicaciones, es posible plantear el problema científico:
¿Cuál es la estrategia de servicio al cliente más viable para los pequeños bancos, que permita satisfacer las necesidades de sus clientes y conseguir nuevos públicos?
Por supuesto, el objeto de estudio, en esta investigación es: la Estrategia de Servicio al Cliente.
De este modo, el desarrollo de la investigación conduce al siguiente objetivo: Proponer un modelo racional de Estrategia del Servicio al Cliente, para pequeños Bancos, que permita satisfacer las necesidades de sus clientes y la consecución de nuevos públicos.
Este trabajo por ello, atesora un aporte teórico – científico importante; cediendo a los estudiosos de la mercadotecnia, una descripción bibliográfica local, orientada al desarrollo administrativo y comercial; enfocando aspectos teórico - racionales del servicio al cliente que pueden ser aplicados en el medio, especialmente en cuanto al uso adecuado de sus elementos, convertidos en una estrategia con la que debe atenderse a los usuarios; y en cuyo análisis encontramos autores sumergidos en su estudio; en contrastación con la realidad actual, deprimente por ahora. Pero sobretodo esta investigación logrará una significancia práctica trascendental; ya que en forma real, se mejorará la satisfacción de las necesidades del mercado financiero local, especialmente si hablamos de la comunicación y el servicio ofrecido por su proveedor; pues al conducirnos por la administración de la entidad que nos ofreció sus puertas para desarrollar este trabajo, estamos seguros que podemos crear flujos de comunicación pertinentes entre esta organización y su mercado, con la utilidad de las herramientas desplegadas por este estudio. Como se ve actualmente, existe aún desconfianza de la calidad y profesionalidad de los servicios bancarios entre los clientes potosinos, lo que es necesario cambiar, para lograr un elocuente progreso en las actividades financieras del mercado. Con este trabajo sin embargo, no sólo se beneficiará el banco, al impulsar su desarrollo y sus tendencias de mejor servicio; o sus clientes que verán satisfechas sus necesidades, también su relevancia cae en el hecho de que permitirá destacar los fenómenos a estudiar en cada etapa de la investigación, aplicando estas experiencias en la práctica y permitiendo que desarrollemos nuestros propios conocimientos.
La investigación y el desarrollo de este trabajo, enfocan todos estos aspectos, partiendo desde un determinado punto en el tiempo, por lo que dadas las características del tipo de investigación Transeccional Descriptiva; cuyo objetivo es describir dos o más variables en un momento único determinado, para indagar la incidencia en que se manifiestan las variables y contando ya con la base de un marco teórico general, para la modelación teórica precisamente; se plantea la siguiente hipótesis:
"Una estrategia del servicio al cliente, en los pequeños bancos; se relaciona con la satisfacción de las necesidades de sus clientes y la consecución de nuevos públicos"
Las variables de esta hipótesis, se identifican plenamente, de este modo:
Vi = El modelo racional de estrategia para el servicio al cliente
Vd(1) = Satisfacción de las necesidades en los clientes.
Vd(2) = Consecución de nuevos públicos.
Pero esencialmente son los clientes quienes representaron la fundamental fuente de información a través del uso de los cuestionarios sobre los cuales, en todos los casos se efectuó un examen crítico de los mismos.
En lo que respecta al objeto "servicio al cliente", las cuatro situaciones analizadas se dieron así: 1) Las tendencias de la Administración del Banco, reglamentos relacionados con el objeto. Si se hace, claro. 2) La bibliografía y documentos existentes relacionados con el objeto, ya sean propios de la institución o del entorno. 3) Los cambios que se presentan, con referencia al objeto de investigación. 4) La opinión respecto a las actividades emprendidas por el objeto de estudio.
La Mercadotecnia, como área genérica para desarrollar este trabajo, representa uno de los pilares donde descansa la Administración de las organizaciones, sean éstas de cualquier tipología, grandes o pequeñas, públicas o mixtas; todas éstas deben acomodarse a su entorno: su mercado. Jerome Mc Carthy, de la Universidad Estatal de Michigan, por ejemplo, la describe así:

"La realización de aquellas actividades que tienen por objeto cumplir las metas de una organización al anticiparse a los requerimientos del consumidor o cliente y al encausar un flujo de mercancías aptas a las necesidades y los servicios que el productor presta al consumidor o cliente"
Por su parte, la American Marketing Association, definió la Mercadotecnia, como "el desempeño de las actividades económicas cuyo fin es dirigir el flujo de los bienes y servicios del productor al consumidor".
Ya para 1999, un concepto recientemente acuñado, surge de la obra: "Marketing" escrito por LAMB, Charles W. Jr., HAIR, Joseph F. Jr., y McDANIEL Carl, cuya idea es "la razón social y económica de una empresa en la satisfacción de las necesidades y deseos del cliente, al mismo tiempo que se cumplen los objetivos de la empresa".
En realidad podemos considerar tantas definiciones como autores o estudiosos de la mercadotecnia existentes, tales como Kotler Philiph, contemporáneo de Lamb, pero con una visión más encaminada hacia la Mercadotecnia de productos. STANTON, quien para 1973 todavía encaminaba el esfuerzo de la Mercadotecnia solamente en dirección del beneficio empresarial. Mas en el mundo competitivo de hoy en día es necesaria una mentalidad orientada hacia el cliente. La última década enseñó una lección de humildad a las empresas de todo el mundo. Las empresas no pueden seguir ignorando sus competidores, a los mercados y a las necesidades de sus clientes. Por ello, conocedores de asumir una posición teórica general y firme, consideramos que podemos extractar lo más significativo de las formulaciones dc Mc Carthy; proclive a anticiparse a los requerimientos del cliente quien a su vez, según Charles Lamb, debe ser satisfecho en sus más imperiosas necesidades, con tal de satisfacer las necesidades propias de la empresa. Kotler también menciona aquello, pero será necesario encaminar la postura hacia los servicios (Más que a los productos) ofrecidos por las empresas.
Aún así, en muchos lugares existen demasiadas mercancías o servicios a la caza de un número reducido de clientes. Los mercados mundiales están inundados de acerocomputadoras, productos agrícolas, automóviles, turismo, banca y muchos otros productos y servicios. Algunas empresas tratan de expandir su mercado, pero la mayoría está compitiendo para aumentar su participación actual. Por tanto, hay ganadores y perdedores. Los perdedores son aquellos que no aportan nada especial al mercado. Kotler cree que si no se es capaz de aportar nada especial a un mercado, no se pertenece a él. Los ganadores son los que analizan cuidadosamente necesidades, identifican oportunidades y crean ofertas valiosas para grupos de clientes objetivo que la competencia no puede igualar.
Por ello, tras este análisis, es necesario introducir los elementos de mercadotecnia en empresas de servicio, de cualquier tipología, sobre todo en aquellas que, como en los bancos, su existencia se debe exclusivamente a sus clientes. Por ello para este tipo de instituciones, el servicio al cliente debe ser fundamental, en perfecta y sincronizada armonía, con la avenencia de un sistema. En este entendido, consideraremos a la organización como un sistema en interacción con su medio, -sabemos que el término "Sistema" se refiere a la totalidad de sus elementos interrelacionados y que abarca una amplia gama de actividades- . Bajo el enfoque sistémico entonces, la empresa es vista como sistema abierto, está compuesta de elemento humano, técnico, económico, etc. relacionados entre sí mediante un conjunto de actividades. El servicio al cliente en las organizaciones por ello, también debe ser considerado bajo este enfoque, para completar esa gama de actividades que irán en pro de sus objetivos. Para distinguir lo que queremos mostrar, podemos sintetizar al posición en el diagrama 1:
Diagrama 1: Posición teórica respecto al área genérica: Mercadotecnia.
MC CARTHY
A.M.A
LAMB
KOTLER
STANTON
Anticiparse a los requerimientos del consumidor o cliente
Dirigir el flujo de los bienes y servicios del productor al consumidor
Satisfacción de las necesidades y deseos del cliente, al mismo tiempo que se cumplen los objetivos de la empresa
Los ganadores son los que analizan cuidadosamente necesidades.
Énfasis en el beneficio de la empresa únicamente

 Como vemos en el diagrama 1 y tras el examen efectuado, utilizaremos el concepto encuadrado en la casilla "nuestra posición", (VER DIAGRAMA 1) porque ésta nos permite examinar de manera más amplia la institución objeto de estudio como sistema, en relación al área de investigación (servicio al cliente) .[1]

domingo, 4 de septiembre de 2016

INFORMÁTICA I: MAPA MENTAL COMPUTACIÓN (4) 2016 PLANTEL EMSAD "LÁZARO CÁRDENAS"


NOTA. POR ERROR INVOLUNTARIO EL MAPA EN EL CENTRO DICE "COMPUTACIÓN 3" CUANDO SIGUIENDO LA SERIE ES COMPUTACIÓN (4), GRACIAS.

INFORMÁTICA I: MAPA MENTAL COMPUTACIÓN (3) 2016 PLANTEL EMSAD "LÁZARO CÁRDENAS"



NOTA: POR ERROR INVOLUNTARIO EN EL CENTRO DEL MAPA MENTAL DICE: COMPUTACIÓN (2) PERO EN REALIDAD TENDRÍA QUE DECIR COMPUTACIÓN (3) PORQUE VAN EN ORDEN 1,2,3... GRACIAS.

INFORMÁTICA I: MAPA MENTAL COMPUTADORAS (2) PLANTEL EMSAD "LÁZARO CÁRDENAS"


INFORMÁTICA 1: MAPA MENTAL "INFORMÁTICA" 2016 PLANTEL EMSAD "LÁZARO CÁRDENAS"


INFORMATICA I: EVOLUCIÓN DE LA MEMORIA RAM 2016 PLANTEL EMSAD "LÁZARO CÁRDENAS"

EVOLUCIÓN DE LA MEMORIA RAM

La memoria RAM originalmente utilizada en computadoras basadas en el procesador 286 iba a la asombrosa velocidad de 120ns (8.33Mhz), la cual era alrededor de doble la velocidad del procesador. La memoria era instalada insertando chips individuales en ranuras en la tarjeta madre para formar bancos de memoria; esto era muy incomodo, y hacia que fuera muy fácil el accidentalmente dañar chips durante la instalación.
La memoria RAM todavía era bastante cara en esa fecha (¡alrededor de 300 € por 512KB de RAM!). Mientras que las originales IBM PC soportaban hasta 512KB de memoria en la tarjeta madre, se le podía agregar mas utilizando una tarjeta que se instalaba en una ranura ISA, en la cual se instalaban mas chips de memoria. Uno duraba literalmente horas instalando un chip a la vez; otro problema que se podía presentar con este método era que los chips tenían una tendencia de salirse de sus ranuras con el calentamiento y enfriamiento a través del tiempo. La única forma de evitar esto era soldando los chips a la ranura, pero luego era casi imposible sacar los chips para actualizarlos o para ver si estaban fallando.
SIMMs de 30 Pins
Las generaciones 386 y 486 de computadoras utilizaban versiones mejoradas de RAM a 80ns (12.5Mhz), y venían en circuitos especiales llamados “módulos”. Utilizando estos módulos de memoria simplificaba mucho el proceso de instalación y desinstalación del sistema, aparte de ser mucho mas barato. Estos módulos eran montados en ranuras en la tarjeta madre y eran fijados utilizando unos clips con springs. El utilizar estos módulos preparados significaba dedicarle menos espacio en la tarjeta madre para memoria, lo cual significaba no solamente una tarjeta madre más pequeño en tamaño, sino también el sistema completo era más pequeño. En caso de que fallara un modulo de memoria, solamente tenias que quitarlo y poner otro; esto simplifico bastante el proceso de mantenimiento y actualización.
Los módulos de memoria para las 386 y 486 tenían 30 pins, y eran llamados SIMMs, lo que significa “Single Inline Memory Module”; los chips de memoria se montaban en el módulo, y el módulo en si era instalado en la ranura correspondiente en la tarjeta madre. La mayoría de las tarjetas madres tenían 8 ranuras de memoria en total, con 4 ranuras en cada banco. Para aumentar la capacidad de memoria, simplemente tenias que instalar nuevos módulos en las ranuras disponibles, o reemplazar módulos viejos con unos de mayor densidad.
Cada banco de memoria debe ser del mismo ancho que el bus del procesador. Los 386s y 486s eran procesadores con bus de 32 bits; como cada SIMM de 30 pins tenia 8 bits de ancho de banda (9 bits para módulos con paridad), era requerido que uno instalara 4 chips a la vez para llenar un banco. Uno tenia que llenar el banco, o sino el sistema no reconocería la memoria; para colmo, la memoria debía de ser de la misma capacidad.
El aumento de 4Mhz entre memoria de 120ns y de 80ns era una mejora decente, pero la memoria todavía era desesperadamente lenta comparada con la velocidad del procesador, que para ese tiempo variaba desde 20Mhz hasta 120Mhz; velocidades de las tarjetas madres iban desde 20Mhz hasta 66Mhz. La memoria definitivamente representa un problema a la eficiencia del sistema. En los sistemas anteriores basados en el 286, el bus del sistema iba a la misma velocidad del procesador (aproximadamente 4.77Mhz); para ese tiempo, la velocidad de 8.33Mhz de la memoria era mas que suficiente, pero con la llegada del 386 y 486, se notaba mucho de que la velocidad del sistema y del procesador estaban sacándole gabela a la memoria.
SIMMs de 72 pins
Con la salida del procesador Pentium trajo con el al bus PCI y a módulos SIMMs de 72 pins. Estos nuevos SIMMs eran de 32 bits; estos módulos de 72 pins llegaron a algunos 486 con tarjetas madres VLB (Vesa Local Bus) y PCI (Peripheral Component Interconnect.)
Solamente dos módulos eran requeridos para llenar un banco en un sistema Pentium, mientras que las 486 requerían de uno solo. Los dos chips instalados en un banco de memoria deben de ser preferiblemente del mismo tipo, tamaño y con el conector del mismo tipo (sea oro o cobre). No se podían ligar chips de diferentes capacidades; simplemente el sistema o no funcionaría o el sistema reduciría la capacidad del chip mayor al valor del menor (o sea que si uno instalase un chip de 8MB y uno de 16MB, el sistema reconocería a 2 chips de 8MB.)
SO-DIMM
El “Small Outline-Dual Inline Memory Module” (SO-DIMM) fue creado específicamente para aplicaciones móviles. Laptops en partículas son extremadamente propietarias; si usted se fija en los catálogos de computadoras, se pueden ver dos paginas dedicadas exclusivamente a las diferentes memorias de laptops. La SO-DIMM fue creada con el fin de tratar de consolidar el tipo de RAM utilizado en computadoras móviles. Cualquiera que tenga una laptop se ha podido dar cuenta de los precios extraordinarios asociados con las laptops, debido a que como el único suplidor de memoria para una laptop es el mismo vendedor de ella, le pueden poner cualquier precio que deseen.
Actualmente los SO-DIMMs aparecen en configuraciones de 72, 100 y 144 pins. Estos módulos tienen trabajo en la mayoría de las aplicaciones móviles que requieran RAM. Muchos de los SO-DIMMs son utilizados en impresoras.
DIMMs de 168 Pins
El “Dual Inline Memory Module” (DIMM) fue introducido con los últimos modelos de sistemas Pentium MMX, y todavía se utiliza en la mayoría de los sistemas actuales. DIMMs son módulos de memoria de 64 bits, y solamente se requiere de un modulo para llenar un banco en el sistema.
Uno puede clasificar a la memoria EDO y la SDRAM (las cuales veremos luego) como módulos DIMM. Los DIMMs vienen una en variedad de tipos, y tienen un hoyito que, dependiendo de que lado esta, indica de que si esta es protegida o no protegida; también tiene un indicador de voltaje, el cual especifica que voltaje requiere para funcionar el chip (5V para memoria EDO, 3.3V para memoria SDRAM).[1]

ARTICULO TOMADO DEL SIGUIENTE LINK PARA EFECTOS ACADÉMICOS 

[1] http://www.hostingyvirtualizacion.com/evolucion-de-los-modulos-de-memoria-ram/


INFORMÁTICA I: GENERACIÓN DE COMPUTADORAS 2016 INVESTIGACIÓN PLANTEL EMSAD "LÁZARO CÁRDENAS"

INTRODUCCIÓN
En la actualidad no se puede pensar en casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo. Las computadoras han invadido la mayoría de las labores del ser humano
El mundo está cambiando y usted deberá aprender todas esas, antes complicadas, hoy comunes tecnologías modernas que le permitirán conseguir un empleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la comodidad de su hogar (teletrabajo), reduciendo el tráfico en las calles y por ende la contaminación de las grandes ciudades. La mayoría de los gobiernos de los países en desarrollo han tomado muy en serio los programas de educación para crear en sus poblaciones una "cultura informática".
Definitivamente, las computadoras están cambiando nuestras vidas. Ahora hemos de aprenderla para no quedar inmersos en una nueva forma de analfabetismo. Lo anterior contribuye a la creación de nuevos esquemas sociales que incluyen: novedosas maneras de comercialización aprovechando las facilidades para comunicarse con todo el mundo a través de Internet; la necesidad de crear leyes adecuadas a la realidad cibernética actual y, sobre todo; la concepción de una nueva manera de relacionarse con nuestros semejantes, que contemple una serie de normas éticas que regulen la convivencia pacifica y cordial entre los millones de personas que tienen que utilizar estas avanzadas tecnologías para realizar su trabajo, estudio, descanso y esparcimiento diarios.
Hoy día todos los habitantes del mundo somos dependientes directos o indirectos del uso de las computadoras, como en oficinas bancarias, grandes y medianos comercios, centros de enseñanza, oficinas de ventas y reservaciones para viajes, clínicas médicas u hospitales, fabricas y almacenes industriales, organismos de gobierno y oficinas administrativas, laboratorios, y centros de investigación. Estas máquinas maravillosas inventadas por el hombre, tal como ahora las concebimos, son el resultado de una secuencia de eventos que el transcurso de esta investigación conoceremos.
Para saber mas acerca de estos eventos en esta investigación mostraremos las diferentes generaciones por las que ha pasado el mundo de la computación, esta larga historia es necesario mencionar las épocas y los personajes gracias a cuyos valiosos aportes a través del tiempo, hicieron posible la gestación de la hoy llamada Era de la Computación, la cual sin lugar a dudas es el resultado de un largo proceso evolutivo que jamás cesará. 
PRIMERA GENERACIÓN (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calorque los modelos contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.






Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.
SEGUNDA GENERACIÓN (1959-1964)
Transistor Compatibilidad Limitada

El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.



Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventariosnómina y contabilidad.

 La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).
Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.






El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.

Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.







La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).
Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.
Microprocesador , Chips de memoria, Microminiaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)







En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).
Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.
QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.

Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguajenatural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.





 El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).

Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.


El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.




  El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones.  Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. 

Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
En esta investigación acerca de las generaciones de las computadoras nos hemos dado cuenta del avance que han tenidos y , gracias a los avances en relación a ellas hemos alcanzado un nivel de tecnología muy elevado el cual nos ha servido para muchas áreas, como por ejemplo las comunicaciones, la medicina, la educación, etc.
La investigación actual va dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios millones de componentes en un solo chip.
Las computadoras se han convertido en la principal herramienta utilizada por el hombre y ya son parte esencial de cada uno de nosotros, y usted deberá aprender todas esas, antes complicadas hoy comunes tecnologías modernas.[1]



[1] http://www.monografias.com/trabajos28/generaciones-computadoras/generaciones-computadoras.shtml