a) ambito automotriz
b) ambito agropecuario y agrario
c) textil
d) escolar
e) nautica
f) robotica
g) construcciòn general de estructuras y edificaciones
h) medicina ( mejoras para la salud y equipo)
i) telecomunicaciones e informacion para las relaciones sociales
sus ventajas y desventajas de cada uno.
A) la industria automotriz se encuentra entre las industrias mas privilegiadas por el impulso de la tecnología, la demanda y la competencia. Cuando un fabricante de automóviles tiene una novedad y, en consecuencia, una buena respuesta del mercado, es probable que todos los otros fabricantes sigan su ejemplo, ingresando a la competencia.
en con sideracion a que el mercado es sencible a los avances tecnologicos, este auspicioso campo se centra particularmente en aquellos progresos que pueden ser apreciados por el publico automovilista
lunes, 29 de noviembre de 2010
lunes, 22 de noviembre de 2010
Tendencias hacia el futuro de la tecnología de almacenamiento.
Al ritmo que evoluciona el concepto de centro de datos, así lo hace el de almacenamiento, incorporando nuevas propuestas en busca de la flexibilidad, la eficacia y la reducción de costes. En este informe destacamos, tanto por su valor real ya en estos momentos como por el gran potencial que encierran para un futuro cercano, la eclosión del modelo bajo demanda y de pago por uso, la virtualización integrada de las tecnologías de servidor y de almacenamiento, y el auge que está cobrando ILM, siglas que remiten a un nuevo modo de gestionar la información más en línea con el objetivo del negocio.
1- Capacidad bajo demanda
Uno de los distintivos del nuevo centro de datos es la flexibilidad, al rebasar los límites que representan los recursos dedicados, casi siempre infrautilizados. Y en lo que afecta al almacenamiento, esta flexibilidad significa poder conseguir capacidad de forma automatizada, bajo demanda y según el modelo de pago por uso.
Aunque las empresas llevan tiempo logrando de los fabricantes acuerdos de licencias creativos que reducen los costes del almacenamiento, están apareciendo en los últimos meses nuevos modelos que aportan ventajas adicionales a los usuarios, ya se atengan al concepto bajo demanda (“on demand”) o al más novedoso de “utility storage”. Ambos aportan un mayor control del coste y mayor facilidad a la hora de planificar la capacidad de almacenamiento, y, en realidad, no siempre es fácil establecer las diferencias entre ellos, dada la confusión general con que aparecen incluso en los documentos de los propios analistas y expertos. El marketing de los fabricantes, como casi siempre, no contribuye nada a la clarificación, ni aún en los casos en que ni siquiera existen diferencias conceptuales que justifique tal baile de términos.
En principio y al menos en los últimos tiempos, se podría entender por almacenamiento bajo demanda cuando un usuario compra un array con capacidad extra a la que accede en porciones de datos prenegociadas pero que han de pagar los usen o no. En el modelo de utility o de “pago por uso”, los arrays de almacenamiento suelen venir configurados con el volumen de capacidad que una empresa estima que necesitará, más una capacidad extra determinada. El usuario puede usar poca o mucha capacidad en función de sus necesidades, y sólo paga por el volumen realmente utilizado en cada momento. La meta no es otra que disfrutar de capacidad de almacenamiento como si fuera una utility más, como el agua, la electricidad o el gas; hasta el punto de que en Estados Unidos esta modalidad empieza a ser conocida como “pago por contador”.
Existen diferencias, no siempre sutiles, pero, en cualquier caso, los dos esquemas introducen una nueva forma de entender la planificación y la adquisición de capacidad de almacenamiento, bajo la tendencia general en el sector hacia un nuevo modelo de entrega de capacidad tecnológica por parte de los suministradores, y de uso –más efectivo, controlable y asequible– por parte de los clientes .
1- Capacidad bajo demanda
Uno de los distintivos del nuevo centro de datos es la flexibilidad, al rebasar los límites que representan los recursos dedicados, casi siempre infrautilizados. Y en lo que afecta al almacenamiento, esta flexibilidad significa poder conseguir capacidad de forma automatizada, bajo demanda y según el modelo de pago por uso.
Aunque las empresas llevan tiempo logrando de los fabricantes acuerdos de licencias creativos que reducen los costes del almacenamiento, están apareciendo en los últimos meses nuevos modelos que aportan ventajas adicionales a los usuarios, ya se atengan al concepto bajo demanda (“on demand”) o al más novedoso de “utility storage”. Ambos aportan un mayor control del coste y mayor facilidad a la hora de planificar la capacidad de almacenamiento, y, en realidad, no siempre es fácil establecer las diferencias entre ellos, dada la confusión general con que aparecen incluso en los documentos de los propios analistas y expertos. El marketing de los fabricantes, como casi siempre, no contribuye nada a la clarificación, ni aún en los casos en que ni siquiera existen diferencias conceptuales que justifique tal baile de términos.
En principio y al menos en los últimos tiempos, se podría entender por almacenamiento bajo demanda cuando un usuario compra un array con capacidad extra a la que accede en porciones de datos prenegociadas pero que han de pagar los usen o no. En el modelo de utility o de “pago por uso”, los arrays de almacenamiento suelen venir configurados con el volumen de capacidad que una empresa estima que necesitará, más una capacidad extra determinada. El usuario puede usar poca o mucha capacidad en función de sus necesidades, y sólo paga por el volumen realmente utilizado en cada momento. La meta no es otra que disfrutar de capacidad de almacenamiento como si fuera una utility más, como el agua, la electricidad o el gas; hasta el punto de que en Estados Unidos esta modalidad empieza a ser conocida como “pago por contador”.
Existen diferencias, no siempre sutiles, pero, en cualquier caso, los dos esquemas introducen una nueva forma de entender la planificación y la adquisición de capacidad de almacenamiento, bajo la tendencia general en el sector hacia un nuevo modelo de entrega de capacidad tecnológica por parte de los suministradores, y de uso –más efectivo, controlable y asequible– por parte de los clientes .
que son los sitemas operativos
sistemas operativos son un conjunto de programas que crean la interfazdel hardware con el usuario, y que tiene dos funciones primordiales, que son:
Gestionar el hardware.- Se refiere al hecho de administrar de una forma más eficiente los recursos de lamáquina .
Gestionar el hardware.- Se refiere al hecho de administrar de una forma más eficiente los recursos de la
Facilitar el trabajo al usuario.-Permite una comunicación con los dispositivos de la máquina.
El Sistema Operativo se encuentra almacenado en la memoria secundaria. Primero se carga y ejecuta un pedazo de código que se encuentra en el procesador, el cual carga el BIOS, y este a su vez carga el Sistema Operativo que carga todos los programas de aplicación y software variado.
los sistemas operativos
los sistemas operativos son un conjunto de programas que crean la interfazdel hardware con el usuario, y que tiene dos funciones primordiales, que son:
Organizar datos:para acceso rápido y seguro.
- Gestionar el hardware.- Se refiere al hecho de administrar de una forma más eficiente los recursos de la
máquina . - Facilitar el trabajo al usuario.-Permite una
comunicación con los dispositivos de la máquina.
El Sistema Operativo se encuentra almacenado en la memoria secundaria. Primero se carga y ejecuta un pedazo de código que se encuentra en el procesador, el cual carga el BIOS, y este a su vez carga el Sistema Operativo que carga todos los programas de aplicación y software variado.
Algunas caracteristicas de los sistemas operativos:
conveniencia: un sistema operativo hace màs conveniente el use de una computadora.
eficiencia:permite que los recursos de la computadora se usen de la maneramas eficiente.
Habilidad para evolucionar: un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.
Manejar las comunicaciones en red:el Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
miércoles, 17 de noviembre de 2010
diferentes tipos de almacenamiento
LA MEMORIA
Es la capacidad de almacenar información, la cual se realiza en bancos separados de la UCP. Su unidad de almacenamiento es el BYTE que es la capacidad de almacenar un caracter: una letra, número o cualquier símbolo como #,$,&, etc.
TIPOS DE MEMORIAS:
Memoria ROM
Esta memoria es sólo de lectura, y sirve para almacenar el programa básico de iniciación, instalado desde fábrica. Este programa entra en función en cuanto es encendida la computadora y su primer función es la de reconocer los dispositivos, (incluyendo memoria de trabajo), dispositivos.
Memoria RAM
Esta es la denominada memoria de acceso aleatorio o sea, como puede leerse también puede escribirse en ella, tiene la característica de ser volátil, esto es, que sólo opera mientras esté encendida la computadora. En ella son almacenadas tanto las instrucciones que necesita ejecutar el microprocesador como los datos que introducimos y deseamos procesar, así como los resultados obtenidos de esto.
Por lo tanto, programa que se desea ejecutar en la computadora, programa que máximo debe ser del mismo tamaño que la capacidad de dicha memoria, de lo contrario se verá imposibilitada de ejecutarlo.
MEMORIAS AUXILIARES
Por las características propias del uso de la memoria ROM y el manejo de la RAM, existen varios medios de almacenamiento de información, entre los más comunes se encuentran:
El Disquete, Floppie o Disco Flexible
Disco Duro
El Cuál se instala fijo dentro de la computadora, son más rápidos y seguros que las unidades de lectura de disquete y cuyas capacidades de almacenamiento van desde los 20 Mbyteshasta 2 Gigabytes. Los más rápidos andan por debajo de los 15 milisegundos de acceso de la información. En la actualidad evite comprar discos con capacidades menores a 120 Mb. en poco tiempo no le servirán prácticamente para nada.
CD-ROM o Disco Compacto
Son los más caros y de mayor capacidad ya que mínimo son de 500 Mbytes y pueden llegar a almacenar en el futuro alrededor de algunos Terabytes. Se recomienda ir comprando equipo que contengan éste dispositivo, ya que gracias a las grandes cantidades de información tan variada que pueden soportar éste tipo de almacenamiento, ya se comienzan a construir las grandes base de información en un sólo disco : Enciclopedias, Cursos, Viajes turísticos, los periódicos y revistas del futuro que tenemos frente a nosotros.
lunes, 15 de noviembre de 2010
sexta generación
SEXTA GENERACIÓN(1990 hasta la fecha)
Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicosde la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
generaciones de las computadoras
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC).
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha .
proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su PersonalComputer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC , y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).
QUINTA GENERACIÓN (1982-1989)
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación ( software) como CADI CAM, CAE, CASE , inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del 3era generación (1964-1971)
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
El Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos .
Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.
viernes, 12 de noviembre de 2010
diferencia en las generaciones de las computadoras
En la actualidad no se puede pensar en casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo. Las computadorashan invadido la mayoría de las labores del ser humano
El mundo está cambiando y usted deberá aprender todas esas, antes complicadas, hoy comunes tecnologías modernas que le permitirán conseguir un empleomejor retribuido y quizás, en poco tiempo, realizar trabajos desde la comodidad de su hogar ( teletrabajo), reduciendo el tráfico en las calles y por ende la contaminaciónde las grandes ciudades .
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopoliode los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne , básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.
SEGUNDA GENERACION (1959-1964)
El invento del transistor hizo posible una nueva generacion de computadoras, mas rapidas, mas pequeñas y con me nores ventanas de ventilacion, sin embargo el costo seguia siendo una porcion significativa del presupuesto de una compañia. tambien ultilizaban redes nucleos magneticos en lugares de tambores giratorios para el almacenamiento primario.
TERCERA GENERACION (1964-1971)
lunes, 8 de noviembre de 2010
Suscribirse a:
Entradas (Atom)