miércoles, 5 de diciembre de 2012

6.6 ADMINISTRACIÓN DE SISTEMAS DE INFORMACIÓN INTERNACIONALES


Un sistema de informacion (SI) es un conjunto de elementos orientados al tratamiento y administracion de datos e informacion, organizados y listos para su posterior uso, generados para cubrir una necesidad (objetivo). En informatica un sistema d einformacion es cualquier sistema o subsistema de equipo de telecomunicaciones o computacional interconectados y que se utilicen para obtener, almacenar, manipular, administrar, mover, controlar, desplegar, intercambiar, transmitir o reicibir voz y/o datos e incluye tanto los programas de computacion (software y firmware) como el equipo de computo.Se pueden clasificar los sistemas de informacion en 1.sistemas competitivos 2.sistemas cooperativos 3.sistemas que modifican el estilo de operacion del negocio 4.sistema de procesamiento de transacciones 5. sistema de informacion gerencial. 6. sistema de soporte a decisiones. 7. sistema de informacion ejecutiva 8. sistema de automatizacion de oficinas 9. sistema de planificacion de recursos 10. sistema experto.
os sistemas de infromacion y las organizaciones deben estar alineados para producir la informacion que grupos importantes dentro d ela organización puedan utilizar, las organizaciones deben estar pendientes a las influencias de los sistemas de informacion para poder beneficiarse de nuevas tecnologias.factores mediadores: entorno, cultura, estructura, procesos estandarizados, procesos de negocios, politicas, decisiones administrativas, casualidades.
Organización de los SI.
Hasta la década de los ochenta los directivos no necesitaban saber mucho sobre como la información se obtenía, procesaba y distribuía en sus instituciones y la tecnologíaque se requería era mínima puesto que la información en sí no se consideraba como un activo de importancia para las organizaciones. Ya a partir de los años noventa, con el surgimiento y reforzamiento de la globalizaciónde las economías que se han transformado de fundamentalmente industriales a basada en la información y el conocimiento, pocos directivos pueden darse el lujo de ignorar como se maneja la información en sus instituciones (Laudon y Laudon, 1996). Como los SI pueden cambiar potencialmente la estructura organizativa y las prácticas institucionales, a menudo su introducción se enfrenta con una resistencia considerable

SISTEMAS DE INFORMACION INTERORGANIZACIONAL E INTERNACIONAL

Un Sistema de Información Interorganizacional (SIIO) se define como la automatización del flujo de información entre organizaciones para alcanzar un sistema de administración de la cadena de suministros deseado.
Los sistemas de información de las organizaciones internacionales: la documentación internacional
El acceso a la información generada por las organizaciones internacionales es -en nuestro mundo globalizador- una necesidad para numerosos grupos de usuarios, que van desde los medios de comunicación, gobiernos, ámbito científico y desde luego ciudadanos que necesitan conocer sus derechos y obligaciones dirimidos cada vez más en un marco internacional Clasificación de las características de un SII
a.1 Cooperación.
A. Organización Internacional:
a.2 Financiación.
b.1 Documentación Internacional Subsistemas de un Sistema Internacional de Información
1. Subsistema Editorial.
2. Subsistema de Medios de Comunicación.
3. Subsistema Lingüístico.
4. Subsistema de Bases de Datos Documentales.
5. Subsistema Estadístico.
6. Subsistema Archivístico.
7. Subsistema Museográfico.
8. Subsistema Bibliográfico
SISTEMA DE INFORMACION EN LA TOMA DE DECISIONES: REQUERIMIENTOS DE INFORMACION DE LOS ADMINISTRADORES
determinacion de los requerimientos de informacion: entre las herramientas utilizadas para definir los requerimientos de informacion en el negocio se encuentran: muestreo e investigacion de los datos relevantes, entrevistas, cuestionarios, el comportamiento de los tomadores de decisiones y su ambiente de oficina y hhasta la elaboracion de prototipos. ene esta fase el analista esta esforzandose por comprender que informacion necesitan los usuarios para realizar su trabajo. las personas involucradas en esta fase son los analistas y los usuarios, tipicamente los administradores de las operaciones y los trabajadores de las operaciones.

SI. COMO APOYO PARA LA TOMA DE DECISIONES ADMINISTRATIVAS Y REGIONALES
Para la toma de decisiones es importante contar con la mayor cantidad de información relevante y oportuna. Al respecto, hay dos tipos de información: la estructurada que encontramos en las bases de datos relacionales tradicionales y la no-estructurada.
La información estructurada es la que estamos acostumbrados a administrar y a procesar para el soporte a la toma de decisiones, lo cual representa una gran desventaja para una empresa, puesto que perdemos de vista información muy valiosa que se encuentra no-estructurada, fuera de las bases de datos.
La información no-estructurada la encontramos en fuentes tales como documentos, el web o las suscripciones a servicios de información y en formatos muy diversos como texto, videos, audio o imágenes.
Características Especificas
Interactividad
Sistema computacional con la posibilidad de interactuar con el tomador de decisiones en forma amigable y con respuesta a tiempo real.
Tipos de decisiones
Apoya el proceso de toma de decisiones estructuradas y no estructuradas.
Frecuencia de uso
Tiene la utilización frecuente por parte de la administración media y alta para el desempeño de su función.
Variedad de usuarios
Puede ser utilizada por usuarios de diferentes áreas funcionales como ventas, producción, administración, finanzas y recurso humanos.
Flexibilidad
Permite acoplarse a una variedad determinada de estilos administrativos.
Desarrollo
Permite el desarrollo de modelos de decisión directamente por el usuario interesado, sin la participación operativa de profesionales en informática.
Interacción ambiental
Permite la posibilidad de interactuar con información externa en la definición de los modelos de decisión.
Comunicación interorganizacional
Facilita la comunicación de información relevante de los niveles altos a los niveles operativos y viceversa, a través de graficas.
Acceso a bases de datos
Tiene la capacidad de accesar información de las bases de datos corporativas sin que las modifiquen. Simplicidad
Simple y fácil de aprender y utilizar por el usuario final
Finalmente se quiere hacer notar que la implantación de un Sistema de Apoyo a las Decisiones pueden llevarse a cabo en microcomputadoras o mainframes, dependiendo de la infraestructura disponible. Las ventajas que se obtienen al hacerlo a través de microcomputadoras son las siguientes:
Menores costos
Disponibilidad de muchas herramientas en el mercado que operan en el ambiente de microcomputadoras
Muy baja dependencia de personas que se encuentran fuera del control del tomador de decisiones.

INTELIGENCIA ARTIFICIAL Y SISTEMAS EXPERTOS
la inteligencia artificial es la parte de la ciencia que se ocupa del diseno de sistemas de computacion inteligentes es decir sistemas que exhiben las caracteristicas que asociamos a la inteligencia en el comportamiento humano que se refiere ala comprension del lenguaje el aprendizaje el razonamiento la resolucion de problemas entre otros. La inteligencia artificial es una ciencia que intenta la creacion de programas para maquinas que limiten el comportamiento y la comprension humana. Los sistemas de inteligencia artificial incluyen a las personas, los procedimientos, el hardware y sorftware, los datosy los conocimientos necesarios para desarrollar sistemas y maquinas de computacion que presenten caracteristicas de inteligencia. El objetivo del desarrollo de sistemas de IA contemporaneos no es el reemplazo completo de la toma de decisiones de los humanos pero si duplicarlos para ciertos tipos de problemas bien definidos. las principales ramas de la IA son: -robotica -Sistemas de Vision -Procesamiento de lenguaje natural -sistemas de aprendizaje -redes neuronales -logica difusa -algoritmos genericos -agentes inteligentes -sistemas expertos

SISTEMA EXPERTO (SE)
Es una aplicación informática capaz de solucionar un conjunto de problemas que exigen un gran conocimiento sobre un determinado tema. Un sistema experto es un conjunto de programas que, sobre una base de conocimientos, posee información de uno o más expertos en un área específica. Se puede entender como una rama de la inteligencia artificial, donde el poder de resolución de un problema en un programa de computadora viene del conocimiento de un dominio específico. Estos sistemas imitan las actividades de un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de inteligencia artificial). También se dice que un SE se basa en el conocimiento declarativo (hechos sobre objetos, situaciones) y el conocimiento de control (información sobre el seguimiento de una acción).

Arquitectura de la Información

Arquitectura de la Información (AI) es la disciplina y arte encargada del estudio, análisis, organización, disposición y estructuración de la información en espacios de información, y de la selección y presentación de los datos en los sistemas de información interactivos y no interactivos.

Su principal objetivo es facilitar al máximo los procesos de comprensión y asimilación de la información, así como las tareas que ejecutan los usuarios en un espacio de información definido.

Es la forma particular que toma la tecnología de la información en una institución para alcanzar las metas seleccionadas.

•Relaciones Precio-Poder.

•Software para Usuario Final.

•Servicios Electrónicos.

•Crecimiento del Conocimiento y Trabajo de Información.

•Redes de Telecomunicaciones.

En resumen, podemos definir a la arquitectura de la información como el área de infraestructura que se dedica a integrar todas las necesidades de manejo de información de datos para así desarrollar soluciones de manejo a los usuarios que les permitan tomar decisiones acertadas basadas en datos correctamente procesada.

domingo, 11 de noviembre de 2012

3.5.3 INTELIGENCIA ORGANIZACIONAL: RAZONAMIENTO BASADO EN CASOS


3.5.3 INTELIGENCIA ORGANIZACIONAL: RAZONAMIENTO BASADO EN CASOS

Esta técnica de inteligencia artificial intenta llegar a la solución de nuevos problemas, de forma similar a como lo hacen los seres humanos.Es una tecnología de la inteligencia artificial que representa el conocimiento como una base de datos de casos y soluciones.

Cuando un individuo se enfrenta a un nuevo problema comienza por buscar en su memoria experiencias anteriores similares a la actual y a partir de ese momento establece semejanzas y diferencias y combina las soluciones dadas con anterioridad para obtener una nueva solución. Este proceso es intuitivo y la persona lo realiza prácticamente sin darse cuenta. Una vez que la persona tiene situadas un grupo de situaciones anteriores similares a la actual, analiza las variantes que se presentan en la nueva situación y cómo puede dar respuesta a estos cambios. De manera resumida el proceso ocurre como sigue:

El individuo buscó en su memoria casos similares.

Intenta inferir una respuesta a partir del caso mas similar que encontró.

Tuvo que realizar algunas concesiones y ajustes para adaptar el caso anterior a la situación actual.

Finalmente la solución obtenida no es igual a la anterior, pero cumple dos aspectos muy importantes, el primero da respuesta al nuevo problema y el segundo, ha enriquecido su experiencia anterior con la nueva solución. El funcionamiento del RBC parte de estos principios y para ello comprende cuatro actividades principales:

Recuperar los casos más parecidos.

Reutilizar el o los casos para tratar de resolver el nuevo problema.

Revisar y adaptar la solución propuesta, en caso de ser necesario.

Almacenar la nueva solución como parte de un nuevo caso.

Un nuevo problema se compara con los casos almacenados previamente en la base de casos y se recuperan uno o varios casos. Posteriormente se utiliza y evalúa una solución, sugerida por los casos que han sido seleccionados con anterioridad, para ver si se aplica al problema actual. A menos que el caso recuperado sea igual al actual, la solución probablemente tendrá que ser revisada y adaptada, produciéndose un nuevo caso que será almacenado. La elaboración de un sistema que emplea el RBC presenta dos problemas principales: el primero saber cómo almacenar la experiencia de tal forma que ésta pueda ser recuperada en forma adecuada y el segundo conseguir utilizar la experiencia previa en un problema actual.

La forma de representar y almacenar estas experiencias se realiza a través de casos. Un caso mantiene todos los atributos y características relevantes de un evento pasado. Estas características servirán como índices para la recuperación del caso futuro.De acuerdo a la naturaleza del problema tratado se define la representación del caso, es decir, cuáles son los atributos importantes, qué problemas serán tratados, cuál es la solución propuesta, etc. Además es necesario definir el o los mecanismos de recuperación de casos.

3.5 INTELIGENCIA ARTIFICIAL


3.5 INTELIGENCIA ARTIFICIAL
 bueno para mi es
un agente inteligente que permite pensar, evaluar y actuar conforme a ciertos principios de optimización y consistencia, para satisfacer algún objetivo o finalidad. De acuerdo al concepto previo, racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina.

3.5.1 ¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?
La inteligencia artificial esta considerada a una rama de la computación que es relaciona a un fenómeno natural con una analogía artificial y a través de programas de computador. La inteligencia artificial puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano.

3.5.2 ¿POR QUÉ LA INTELIGENCIA ARTIFICIAL ES DE INTERÉS PARA LOS NEGOCIOS?
bueno para mi la inteligencia artificial es un área que no ha madurado del todo ya que se han pensado innumerables aplicaciones de esta nueva herramienta. ya que hay aplicaciones que van de lo trivial a lo formal, de los juegos a la salud, de la guerra al salvamento de vidas. Pero tambien hay infinidad de áreas que aún no se han beneficiado de las ventajas de esta tecnología, o bien no la han utilizado en gran escala. Concretamente el área de negocios es una de ellas, la cual brinda un abanico muy amplio y atractivo que bien pueden ser llenado fácilmente por la Inteligencia Artificial,ya que en la creación de sistemas expertos o bien funcionando como componente de sistemas mas complejos de toma de decisiones, para que sean utilizados como herramientas invaluables por los administradores actuales.

3.5.3 INTELIGENCIA ORGANIZACIONAL: RAZONAMIENTO BASADO EN CASOS

La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden "pensar".

sábado, 27 de octubre de 2012

UNIDAD III. INFRAESTRUCTURA EN TECNOLOGÍA DE INFORMACIÓN


3.1 1 ESTRUCTURA DE TECNOLOGÍAS DE INFORMACIÓN Y TECNOLOGÍAS  EMERGENTE

TECNOLOGÍAS EMERGENTES

Un panorama importante sobre algunas de las tecnologías emergentes más relevantes en la actualidad, es el que presenta el “Horizon Report” como parte de una serie de reportes anuales internacionalmente reconocidos desde el 2002 al respecto. En el último reporte del 2011, el dedicado al ámbito de la Educación Superior, el grupo de expertos internacionales que lo realizó, analizó e identificó aquellas tecnologías emergentes más relevantes que tendrán un impacto profundo en los próximos cinco años en los ámbitos de la enseñanza, el aprendizaje y la investigación creativa . Las seis tecnologías clave que se presentan en él, están organizadas en el orden de valoración dado por los expertos y estructuradas en tres horizontes de adopción:

 

Horizontes de adopción
Tendencias clave
Retos críticos
1 año o menos
2 - 3 años
3 – 5 años
1.
Libros electrónicos
3.
Realidad aumentada
5.
Interfaces gestuales
ü La abundancia de recursos e interacciones a través del Internet está incrementando el reto para repensar sobre nuestro rol como educadores en cuanto a ‘producción de sentido’, ‘coaching’ y acreditación’.
ü  Las personas esperan trabajar, aprender y estudiar en el tiempo y lugar que lo deseen.
ü El mundo del trabajo es incrementalmente colaborativo, acrecentando la reflexión sobre la forma en que los proyectos de los estudiantes son estructurados.
ü Las tecnologías que usamos están incrementalmente basándose en ‘la nube’ (cloud-based), y nuestras nociones sobre el soporte en TI tienden a la descentralización.
ü La alfabetización digital continua en ascenso de importancia como competencia clave en todas las disciplinas y profesiones.
ü Las mediciones apropiadas para la evaluación están quedando rezagadas por la emergencia de nuevas concepciones sobre la escuela, formas de autoría, publicación e investigación.
ü Las presiones económicas y los nuevos modelos de educación están compitiendo fuertemente contra los modelos tradicionales de universidad.
ü Seguir el ritmo de la rápida proliferación de la información, herramientas de software y recursos está desafiando igualmente a profesores y alumnos.
2.
Tecnologías móviles (teléfonos, tabletas…)
4.
Aprendizaje basado en juegos
 
6.
Herramientas analíticas para el aprendizaje
 

 

De lo anterior, queremos subrayar lo que aparece como tendencias clave y retos críticos de nuestro futuro a corto y mediano plazo en la educación, y que se refiere justamente al replanteamiento de la función y roles de los educadores en la sociedad actual; se enfatiza también la reflexión sobre la necesidad de alejarnos de las formas tradicionales en educación, no sólo con respecto a sus agentes, sino en sus estructuras, procesos y grandes finalidades. Asimismo, queremos resaltar la cuestión que sigue emergiendo en los primeros planos de las reflexiones internacionales al respecto, y que refieren a la alfabetización y competencia digital como competencias clave que han de desarrollar, hoy más que nunca, tanto profesores, como alumnos.

Una aportación adicional importante es la que hace Reig (2011), que asimismo formó parte del comité de expertos del “Horizon Report 2011”, y que apunta la necesidad de añadir a este listado otra serie de tecnologías emergentes que, de acuerdo a su interpretación y experiencia profesional, son relevantes para su consideración:

 

Horizontes de adopción
Retos críticos
1 año o menos
2 - 3 años
3 – 5 años
7.
Entornos de colaboración – social media
8.
Movimientos de investigación activa: Open data
14.
Pantallas flexibles
ü Integración Formal – Informal: Aprendizaje combinado, integración del aprendizaje formal y el informal.
 
ü Privacidad vs. Investigación e innovación.
 
9.
Visualización de datos
15.
Impresión de objetos, prototipos en 3D
10.
Crowdsourcing
 
11.
PLE’s
Entornos y redes  personales
de aprendizaje
12.
Aplicaciones de gama alta
(informática, AutoCAD, edición de video)
13.
Alfabetizaciones múltiples, Mashup’s, nuevos formatos

 

Una pequeña retrospectiva para comparar con la actual, la podemos observar en el reporte Horizon del 2010, que presenta igualmente las seis tecnologías emergentes más destacadas del análisis de ese entonces y en las que podemos identificar que las tecnologías móviles, efectivamente han incrementado su uso, sin embargo, habría que valorar más adelante, los verdaderos aportes al aprendizaje de los alumnos. Asimismo, vemos cómo los libros electrónicos que tenían una perspectiva de 2 a 3 años de adopción en el mundo educativo en 2010, ahora ya, tienen una mayor aceptación hacia esta tecnología. En España, por ejemplo, el préstamo de libros electrónicos está llegando ya a algunas bibliotecas públicas. En suma, vemos que las tecnologías prospectadas se están abriendo camino en la educación aunque aún no podemos hablar de un hecho generalizado.

 

Horizontes de adopción
1 año o menos
2 - 3 años
3 – 5 años
1.
Dispositivos móviles
3.
Libros electrónicos
5.
Gestualización
2.
Contenidos abiertos
4.
Realidad aumentada simple
6.
Visualización de datos

Por su parte, en el más reciente reporte del Comité de la Unión de Sistemas de Información sobre las prácticas emergentes en la era digital, se pronostican asimismo seis tecnologías que ilustrarán las futuras prácticas innovadoras en educación superior: Libros electrónicos, Social Media, Realidad Aumentada, Interfaces de nueva generación (control de voz, pantallas táctiles y 3D), computación en la nube “cloud computing” y el aprendizaje basado en juegos. Para complementar este breve panorama, hemos de considerar paralelamente las nuevas formas de acceso a recursos digitales para la educación (Open courses, OER, MOOC, OCW; la integración de diferentes contextos educativos (formal, no formal, informal) y escenarios de aprendizaje a través de internet (redes sociales, CoPs, CVA); los nuevos tipos y formas de aprendizaje (individual, grupal, colaborativo, conocimiento e inteligencia colectiva, aprendizaje 2.0 y 3.0, aprendizaje móvil y aprendizaje invisible);  y, finalmente, mencionar las teorías y concepciones sobre el aprendizaje de estos tiempos (constructivismo, conectivismo).

 

A la luz este marco, consideramos necesario resaltar tres aspectos vinculados con la emergencia que implican todas estas tecnologías, y que son las nuevas concepciones de espacio, tiempo y velocidad. Tales concepciones e impactos han hecho, por ejemplo, que las barreras físicas de las instituciones universitarias, trasciendan hacia nuevos escenarios virtuales y móviles, dando la posibilidad a los alumnos y a las personas, de vincularse a nuevas propuestas curriculares-pedagógicas a través de las tecnologías e Internet. Esta ‘no-presencia’ o virtualidad en sí misma,representa una variable significativa e importante, incluso para comunicarnos; o como explica, quien afirma que más bien, vivimos una ‘virtualidad real’ - y no en una ‘realidad virtual’ -, ya que la virtualidad real es la clave de todo lo que hacemos hoy en la red Internet: todo lo que percibimos y todo con el que interactuamos, está justamente ‘en’ este hipertexto electrónico, el cual es virtual; por ello, esta virtualidad es nuestra realidad e Internet es quien la procesa.

 

En cuanto a la velocidad, podemos decir que representa la rapidez con la cual la información y el conocimiento se van generando a través de las tecnologías, así como generando nuevos y más avanzados sistemas tecnológicos; esta velocidad es la que hace que sea cada vez más trascendente, insistimos, que el profesorado universitario desarrolle competencias para aprender a aprender de manera crítica y reflexiva, y que será lo que le permitirá adaptarse a la velocidad de los cambios de la realidad y le prepare para aportar soluciones efectivas a problemas sociales relevantes, en el momento y contexto adecuados.

Aún cuando el profesorado universitario incremente el uso de todas estas tecnologías emergentes y le ayude en el proceso de construcción de puentes importantes entre el rol tradicional de la educación y el no tan claro futuro educativo , nos preguntamos ¿qué implicaciones tienen entonces todas estas tecnologías emergentes en su perfil competencial? entre ¿dónde está el ancla? Consideramos en esta reflexión, que necesitamos modelos y referentes claros, flexibles y útiles, que sirvan como herramientas de formación y desarrollo profesional al profesorado en estos tiempos de incertidumbre, cambio constante, tecnologías y escenarios emergentes; un perfil del profesorado universitario más acorde con estos tiempos líquidos, en el que se integren de manera crítica y reflexiva las tecnologías pero con una orientación socialmente relevante más que meramente tecnológica, de tal forma que el profesorado esté preparado para afrontar los retos emergentes del futuro con mayor pertinencia, pero más que reactivo, lo que se intenta plantear es que necesitamos un profesorado proactivo, que desarrolle una visión más a futuro e ir más allá, incluso para anticiparse a los problemas y a las necesidades de la sociedad y no exclusivamente al mercado laboral; recuperar su rol reflexivo y crítico y abrirse a nuevos planteamientos de la sociedad para generar, difundir y compartir el conocimiento para el bien social, con mayor impacto y rapidez.

 

COMPETENCIAS DIGITALES RELEVANTES

Las enormes transformaciones que se han suscitado en el mundo, especialmente en este nuevo siglo, no hacen sino resaltar cada vez más, la necesidad de transformar la Universidad y su misión, pensando sobre todo que ésta, es una institución con una eminente función social. Por tanto, es casi urgente que su misión, sus objetivos y sus acciones, se redirijan hacia la formación, no sólo de profesionales, sino  de ciudadanos, que se insertarán en sociedades mucho más diferentes que en las que se están formando hoy. Consideramos entonces, que el replanteamiento de la misión y las finalidades de la Universidad en este nuevo siglo, debieran ser construidos y reflexionados en, y con, los miembros de la sociedad.

 

En esta línea, y coincidiendo nuevamente consideramos que la propia universidad se va transformando en función del momento histórico que atraviesa, es por ello que en la Sociedad del Conocimiento, se observa además, la necesidad que la universidad reflexione acerca del papel del conocimiento que desea promover, generar y difundir.  “…para imaginar un mundo diferente, debemos plantearnos qué conocimiento es necesario para construir qué tipo de sociedad”  y es aquí donde encontramos la base de lo relevante al momento de considerar la integración de las tecnologías en el desarrollo profesional docente universitario. Habría que plantearse además, qué es lo que entiende por educación, de tal forma que se puedan articular soluciones pertinentes sobre cómo preparar a las personas, y en especial al profesorado universitario, para vivir y trabajar en sociedad, con qué valores y qué tipo de conocimiento seleccionar como el más relevante para la sociedad y con qué propósitos . Una educación que nos posibilite conocer, hacer, vivir juntos y ser, y en la que podamos alcanzar todo nuestro potencial como seres humanos.

 

Bajo estas premisas, insistimos que la integración de las TIC debe ir más allá de una cuestión meramente tecnológica, instrumental o emergente, en la que se tengan en cuenta aspectos más relevantes para el desarrollo de la sociedad que den verdadero valor y sentido a éstas y su contribución real a la educación y en consecuencia, al aprendizaje de los alumnos. Cuando se habla sobre las nuevas tendencias de la formación del profesorado: “…es necesario analizar profundamente el contexto social, político y económico actual, y reflexionar para cuál contexto queremos formar a nuestros profesores”, pero sobre todo, enfatiza la urgencia de reflexionar y definir para qué formarlos; es decir, cuál es la función que deben cumplir en la sociedad, dado que él considera que la situación cultural actual sufre de un gran ‘déficit de sentido’ en el que el profesorado se siente desarmado. Por ello apunta a que necesitamos adoptar el concepto de “sociedades más justas” que contemplen la inclusión social, la participación activa, la incorporación al mercado de trabajo, pero sobre todo, resalta que se contemplen los tres grandes tipos de alfabetizaciones: lecto-escritora, digital y científica. Con ello también señala que una de las áreas de la profesionalización docente que debe reforzarse es el uso e integración de las TIC en su formación.

 

Coincidimos entonces, que una de las variables críticas de todo este entramando es justamente la formación del profesorado para desenvolverse adecuadamente en la Sociedad del Conocimiento. Las Universidades deberían fortalecer y atender, entre muchos otros aspectos, a las necesidades de formación del profesorado para integrar las TIC y saber resolver problemas con éstas, no sólo los relacionados con su rol tradicional de docencia, sino con todos los nuevos roles que enfrenta el profesorado en la actualidad, en los ámbitos de la investigación, la gestión, la innovación, la formación y evaluación, la responsabilidad ética y social, la construcción y difusión del conocimiento, así como la atención a los aspectos éticos, legales y medioambientales que se deriven del uso de las TIC en la educación.

Una diversidad de autores coinciden en la transformación del papel del profesorado ante las TIC, sin embargo, una perspectiva, que a nuestro juicio, denota un análisis más crítico y agudo sobre lo que representa en realidad la Sociedad del Conocimiento para la Educación y el profesorado, es la que realiza, quien describe ampliamente las dos caras de la moneda, es decir, tanto de los beneficios como de los enormes riesgos que plantea la sociedad actual. Hace referencia a que el profesorado debe reconducir su profesión no sólo para la economía del conocimiento, sino más bien para la Sociedad del Conocimiento y más allá de ella, de tal manera que ésta se posicione más allá de los beneficios económicos y responda a necesidades sociales mucho más relevantes y profundas, beneficiando así, a todos los miembros de la sociedad, y en particular, a los menos desarrollados o a los que hasta ahora se han visto marginados por las consecuencias negativas de la Sociedad del Conocimiento en las denominadas brechas digitales, incluyendo por supuesto al mismo profesorado, como uno de los principales agentes educativos afectados y desvalorados por la economía actual. En este sentido, enseñar más allá de la Sociedad del Conocimiento, implica que el profesorado, “…aborde otros valores humanos y objetivos educativos humanos y convincentes además de los que consiguen beneficios: objetivos relacionados con el carácter, la comunidad, la democracia y la identidad cosmopolita.” En consecuencia, la propuesta de Hargreaves señala un perfil del profesorado que enseñe en, para y más allá de la Sociedad del Conocimiento con las siguientes cualidades o conjunto de virtudes profesionales indiscutibles:

 

Enseñar EN y PARA la Sociedad del Conocimiento
Enseñar MÁS ALLÁ de la Sociedad del Conocimiento
Desarrollar un aprendizaje cognitivo sofisticado, un repertorio cambiante y en expansión de prácticas de enseñanza basadas en la investigación, formación y autoevaluación profesional continua, asociaciones de aprendizaje, el desarrollo y uso de la inteligencia colectiva y el cultivo de una profesión que valora la resolución de problemas, la asunción de riesgos, la confianza profesional, el enfrentarse al cambio y el compromiso con la mejora continua.
Servir como contrapunto para promover los valores de comunidad, democracia, humanitarismo e identidad cosmopolita. Dedicación para la construcción del carácter de los alumnos con estos atributos; ayudarles a pensar y actuar por encima y más allá de las seducciones y exigencias de la economía del conocimiento. También exige que los docentes trabajen juntos en grupos de colaboración a largo plazo, que se comprometan y se desafíen entre sí, como una comunidad profesional preocupada y comprometida, que construyan una profesión en la que los docentes puedan experimentar y llegar a ser efectivos trabajando con sus colegas.
Requiere de niveles de capacidad y criterio; cualidades de madurez personal e intelectual que cuesta años desarrollar. Enseñar en la Sociedad del Conocimiento, más bien debería ser una carrera de primera opción, un trabajo para intelectuales adultos, un compromiso a largo plazo, una misión social, un trabajo de por vida.
·  Creatividad.
·  Flexibilidad.
·  Resolución de problemas.
·  Resolución de problemas.
·  Inventiva.
·  Inteligencia colectiva.
·  Confianza profesional.
·  Asunción de riesgos.
·  Mejora continua.
·  Promover el aprendizaje social y emocional, el compromiso y el carácter.
·  Aprender a relacionarse con los demás de una manera diferente; reemplazar las cadenas de interacciones con lazos y relaciones duraderos.
·  Desarrollar una identidad cosmopolita.
·  Comprometerse con un desarrollo profesional y personal continuo.
·  Trabajar y aprender en grupos de colaboración.
·  Forjar relaciones con familias y comunidades.
·  Construir la comprensión emocional.
·  Preservar la continuidad y la seguridad.
·  Establecer la confianza básica en las personas.

 

 

 

 

Recientemente en una conferencia sobre el futuro del profesorado y de su desarrollo profesional, señala que necesitamos seriamente invertir en el desarrollo profesional de los docentes; que debemos repensar la educación; y sobre todo, que debemos invertir en profesorado altamente cualificado que desarrolle competencias de alto nivel y con un alto nivel de compromiso.

 

Analizando y tomando en cuenta las reflexiones previas, así como otras muchas derivadas de un análisis profundo llevado a cabo en una investigación realizada en  “La Competencia Digital del Profesorado Universitario para la Sociedad del Conocimiento”,se han identificado y validado una serie de Unidades de Competencia Digital para dicho perfil, que consideramos debe asumir el profesorado en la Sociedad del Conocimiento, haciendo énfasis en que tal competencia ha de estar integrada en el tejido mismo de cada uno de esos roles, dado su carácter transversal e impacto, en mayor o menor grado, en cada uno de los roles y actividades del docente. Ello permite dejar a un lado el enfoque meramente instrumental de las tecnologías — que consideramos que es sólo una parte del enfoque de competencias y que se considera igualmente junto con aquellas competencias metodológicas, personales y participativas que conforman todos los tipos de saber de una competencia  y abre paso a la prioridad de la persona, del profesional, para que sea él quien a partir de la reflexión crítica, utilice e integre adecuadamente las tecnologías de información y comunicación no sólo en el aula, que correspondería sólo al rol de docencia, sino que las integre en cada uno de sus roles profesionales y sus contextos correspondientes, de acuerdo a su criterio y experiencia profesional. Así, el enfoque no estará en la tecnología, sino en el poder de reflexión y decisión del profesorado para utilizar estratégicamente dicha tecnología.

 

La complejidad de la identificación, selección y organización de las competencias de un profesional es una tarea ardua, colectiva, consensuada y adaptada a los contextos de actuación que configuren su acción personal, social y profesional. No es menos fácil el proceso de identificar tales competencias cuando se trata de un profesional como el profesor, y menos aún, cuando se trata de integrar un elemento que, como ya apuntamos, consideramos transversal a prácticamente a todas las actividades y roles que desempeña el profesor en la Sociedad del Conocimiento que son las tecnologías de información y comunicación. El punto de partida para la identificación de dichas competencias digitales se configuró a partir del análisis, comprensión e identificación de los principales problemas sociales a los que se enfrenta el profesor de educación superior ante los cambios actuales, brevemente esbozados aquí, y a partir de la identificación de estas problemáticas (prácticas socio-culturales relevantes en la Sociedad del Conocimiento), se integró la variable de las tecnologías de información y comunicación, tratando de averiguar en qué aspectos o roles, de qué forma y en qué medida, las TIC han impactado en el perfil del profesorado universitario, sus funciones y contextos de actuación. Así, fundamentados en las problemáticas esenciales de la educación superior en el mundo y del acuerdo global de que las TIC son un elemento esencial para la vida, el ocio y el trabajo de las personas , hemos identificado que el Profesor Universitario ha de desarrollar los siguientes grandes ámbitos competenciales que llamaremos Unidades de Competencia Digital para la Sociedad del Conocimiento.


EMERGENCIA VS. RELEVANCIA:

Dada la emergencia y relevancia que tiene el formar y empoderar al profesorado universitario en la Competencia Digital necesaria para su desarrollo profesional docente en la Sociedad del Conocimiento, hemos tratado de hacer converger nuestra reflexión teórico-conceptual desarrollada hasta el momento, junto con los marcos analizados sobre los avances científico-tecnológicos de la sociedad actual desarrollados en la investigación mencionada para aproximarnos a la construcción de una propuesta teórico-práctica para el profesorado universitario que consiste en un modelo que integra tanto sus unidades de competencia digital desprendidas del perfil del profesor universitario necesario para la Sociedad del Conocimiento, como las fases de desarrollo e integración de esta competencia a través del tiempo en su actividad y desarrollo profesional. Asimismo, integra los distintos niveles de dominio de cada competencia, de tal forma que, de manera integrada en el propio desarrollo y funciones docentes, las TIC representen tanto un sistema tecnológico-simbólico de reflexión para la práctica docente, como una herramienta de autoevaluación diagnóstica que sea de utilidad práctica para identificar sus necesidades formativas con respecto a la competencia digital, tomando así, las decisiones formativas que más le convengan de acuerdo a dichas necesidades y contexto. Con ello, a partir del modelo se construyó y validó un instrumento de autoevaluación (a través de jueces expertos y de una prueba piloto en contexto real), que permite al profesorado universitario, diagnosticar sus necesidades de formación continua con respecto a su competencia digital para orientar sus planes de formación continua hacia el crecimiento y desarrollo profesional.

 


 

 

 

 

Las dimensiones básicas a través de las cuales se vertebra y constituye el modelo son:

 

1.    Las Unidades de Competencia Digital, ya mencionadas anteriormente, como punto de partida y fundamento que da sentido al modelo (la profesionalidad del docente universitario en lo personal y lo profesional; el compromiso profesional, el impacto personal y social).

2.    Las Fases de Integración de la Competencia Digital que dan el carácter de desarrollo y continuidad en el tiempo (sentido formativo). La competencia digital entraña un proceso de aprendizaje complejo, gradual y recurrente, es decir, es más bien un proceso de desarrollo que ha de llevarse a cabo a través del tiempo para poder integrarse adecuadamente en el repertorio de actuaciones del profesorado; un proceso que va desde el establecimiento e identificación del problema educativo a resolver con el apoyo de TIC en su más amplio sentido, y que pasa por otros procesos cognitivos complejos en los que se identifican, se analizan, se organizan, se evalúan y se seleccionan críticamente, entre otros procesos, los sistemas tecnológicos más pertinentes para resolver el problema educativo o situación pedagógica en un contexto y momento determinado.

 

 

 

 


3.    El Nivel de Dominio y Grado de Complejidad de la Competencia Digital, que da cuenta del carácter evolutivo y de profundidad por niveles de desarrollo. Concebir la integración de la competencia digital en el desarrollo profesional docente como proceso continuo, recurrente y gradual (aprendizaje permanente), consideramos que implica además, definir el grado o medida en que cada una de las competencias puede irse desarrollando y profundizando, tanto en su comprensión como en su utilización e integración significativa, es decir, el grado de dominio o maestría de la competencia digital. Así, hemos definido cinco niveles que inician desde la consideración que una competencia no ha sido desarrollada hasta el momento, pero que sin embargo está latente por aprender y desarrollar, hasta llegar a un ideal o máximo nivel de desarrollo de la competencia, como experto.

 

Finalmente apuntamos sintéticamente los ejes vertebradores del modelo, para tener una idea general sobre sus concepciones y fundamentos generales:

 

ü La reflexión crítica y la mejora continua en y sobre la práctica. Lo cual nos da cuenta de un modelo abierto, flexible sometido a evaluación continua; así, se abre la posibilidad de conformar nuevos roles que atiendan a las necesidades de la sociedad. Como apuntamos antes, un enfoque humano y crítico sobre la formación claramente contextualizada.

ü Integración coherente y gradual orientada a la innovación y a la generación y aplicación del conocimiento como compromiso individual y social.

ü Metas claras y alcanzables de desarrollo profesional como fuerza resultante, orientadas al crecimiento y desarrollo profesional; orientan y posibilitan las acciones de formación permanente.

 

 

 

 

 

 

 

 

 

 

 

3.2 COMPONENTES DE LA ESTRUCTURA: HARDWARE Y SOFTWARE

1. sistema informático: hardware y software

1.1 sistema informático

Informática: El término “informática” proviene de la fusión de los términos “INFORmación” y “autoMATICA” . La informática es una ciencia que estudia el tratamiento automático de la información . Como definición formal , se puede usar la siguiente :

“Ciencia que estudia el tratamiento automático y rarcional de la información como soporte de los conocimientos y comunicaciones humanas , llevado a cabo mediante elementos automáticos , así como el conjunto de técnicas , métodos y máquinas aplicadas a dicho tratamiento“ .

La Real Academia Española de la Lengua nos da la siguiente definicion :

“Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de computadoras electronicas” .

De esta última definición podemos deducir que hay tanto una ciencia informatica como unas técnicas informáticas.

Sistema informático: Sistema de procesamiento de la información vasado en ordenadores.

Ordenador: Máquina capaz de aceptar datos a traves de un medio de entrada, procesarlos automáticamente bajo el control de un programa previamente almacenado, y proporcionar la información resultante a través de un medio de salida.

Esta información que se procesa puede ser superflúa o incompleta, o poco clara, o demasiado voluminosa, o llegar demasiado tarde para ser aprobechada (es decir, puede no ser del todo útil). Una “buena” información tendría las siguientes cualidades:

·         Precisión: La información ha de ser precisa. La precisión a exigir dependerá de la aplicación concreta que tenga la información. Hay que evitar tanto defectos de precisión (“en la sala hay varios ordenadores” en lugar de “en la sala hay 15 ordenadores”) como excesos de precisión (“la mesa que queremos es de 75'45648 cms.”).

·         Exactitud: La información ha de ser exácta. La exactitud se mide en términos de porcentaje de error. Es una medida del alejamiento de la realidad. Tambien aquí la aplicación concreta marcará en cada caso la exactitud que ha de exigirse. No podrá obtenerse la exactitud suficiente si los datos de partida son incorrectos o erróneos

·         Oportunidad: La información ha de ser oportuna, es decir, debe llegar al usuario con en tiempo necesario para que éste pueda actuar (en función de dicha información) antes de que esa acción sea inútil. El tiempo disponible para que la información llegue oportunamente variará mucho en función de la aplicación y puede ser desde unos pocos microsegundos (en algunos controles de proceso) a varios meses (en macroeconomía y sociología). También puede ser inoportuno a veces llegar antes de tiempo. En algunas aplicaciones interactivas se introducen retrasos programados en las respuestas del ordenador para evitar que el exceso de velocidad de la máquina incomode al hombre.

·         Integridad: La información debe ser completa. En la mayoría de los casos es inalcanzable una integridad del 100%; en todos los casos conviene que sea lo más completa posible. La integridad no debe provocar que la información contenga cosas superfluas o redundantes (no caer en el exceso de información).

·         Significatividad: La información debe ser clara y relevante, de tal modo que su recepción sea fácil y rápida. Para ello, se puede acompañar dicha información con ayudas gráficas, visuales, auditivas o de otro tipo.

La Informática se ocupa de la información como materia esencial de estudio; con esta información es preciso:

·         representarla en forma eficiente y automatizable

·         retransmitirla sin errores ni pérdidas

·         almacenarla para poderla acceder y recuperar tantas veces como sea preciso

·         procesarla para obtener nuevas informaciones más elaboradas y más útiles a nuestros propósitos

Un sistema informático está compuesto a su vez por dos subsistemas: el Hardware y el Software.

·         Hardware: El equipo físico que compone el sistema se conoce con la palabra inglesa “hardware”, que en castellano se puede traducir como “soporte físico”. Es el conjunto de dispositivos electrónicos y electromecánicos, cirrcuitos, cables... que componen el ordenador. Son entes palpables, que podemos tocar.

·         Software: Para que el sistema trabaje, necesita que le suministren una serie de ordenes que indiquen qué es lo que queremos que haga. Estas órdenes se le suministran por medio de programas. El software o “soporte lógico” está compuesto por todos aquellos programas necesarios para que el ordenador trabaje. El software dirige de forma adecuada a los elementos físicos o hardware.

Comenzaremos estudiando la parte fisica del ordenador, es decir, su hardware

2. componentes físicos: HARDWARE

El ordenador no está formado por un solo bloque, sino que lo forman diferrentes partes encargadas cada una de ellas de una labor muy específica dentro de todo el conjunto.

Hay una parte del ordenador que le sirbe para comunicarse con el exterior, es decir, para recibir y emitir información. Son las unidades de entrada salida, unidades perifecicas o simplemente periféricos.

Otra parte fundamental es la memoria, que se encarga de memorizar las instrucciones, datos y resultados.

La tercera parte fundamental es la unidad central de proceso (U.C.P. o C.P.U.), que se divide en dos partes: una parte que controla todo el proceso (unidad de control, U.C.) y otra parte en la que se realizan las operaciones aritméticas y lógicas que ordene la U.C. (es la unidad aritmético lógica, U.A.L. o A.L.U. ).

memoria

La Memoria Principal o Memoria Central es el dispositivo que sirve para almacenar los programas (instrucciones) que se quieran ejecutar (cuando haya que cargar el programa) y para almacenar los datos, los cálculos intermedios y los resultados (cuando el programa ya se esté ejecutando).Es decir, almacena todo aquello que ha de ser procesado por la CPU. La CPU puede traér y llevar datos directamente desde y hacia la memoria.

La posibilidad de que en dos momentos diferentes esten dos programas diferentes en la memoria es lo que permite que un misma máquina pueda servir para trabajos distintos (ordenadores de propósito general).

Sólo los datos almacenados en la memoria son procesables por la CPU. Los datos que estén contenidos en algún dispositivo de almacenamiento externo deben ser previamente introducidos a la memoria, por medio de una unidad periférica.

La cantidad de memoria usada para almacenar el programa dsependerá de la complejidad del mismo (número de instrucciones que lo formen) y del tamaño de los datos que se quieren procesar en el programa.

direccionabilidad de la memoria

La memoria se puede comparar con los buzones que hay en los portales de los edificios. Están dispuestos en forma matricial, o sea en filas y columnas; cada uno de los buzones es una unidad de almacenamiento y está identificada por un código de piso y puerta al que corresponde.

En la memoria cada uno de estos buzones se corresponde con una celda de memoria o posición de memoria. Estas celdas tienen un tamaño (número de bits que pueden almacenar) siempre igual para cada sistema. A cada celda de memoria se le asigna un indicativo, que llamaremos dirección de la celda (un número) que la identifica y permite referenciarla por su posición dentro del conjunto total de celdillas que componen el total de la memoria. Para leer o escribir información en una determinada celda sera preciso identificarla mediante su dirección de celda. Como suele ser el propio ordenador quien maneja continuamente los números que representan las direcciones, estas direcciones se expresan en binario (que es el sistema con el que trabaja el ordenador). Para mayor comodidad humana, se pueden representar en hexadecimal.

El número de bits (unidad binaria básica de información) que componen una celdilla elemental de memoria, la unidad mínima direccionable, lo que llamamos posición de memoria, depende de la construcción electrónica del diseño de cada ordenador. Hoy dia predomina el empleo de la longitud de 8 bits (1 byte) para posición elemental de memoria.

Otra cosa distinta, que no hay que confundir, es la longitud de bits que son abarcados como operando de una instrucción. Es un dato muy importante porque limita el valor máximo que puede llegar a tener un operando dentro del ordenador. Al conjunto de btits que forman un campo de memoria que contiene un operando de una instrucción de la máquina se le llama palabra.

espacio direccionable

En cualquier ordenador existirá un espacio direccionable. Es el intervalo de direcciones que pueden ser utilizadas por el microprocesador. El espacio direccionable está limitado por el tamaño del bus de direcciones y éste a su vez depende del diseño del microprocesador.

De forma general, la cantidad de memoria maxima que puede direccionar el microprocesador será de 2n bytes, siendo n el número de líneas del bus de direcciones; para un bus de direcciones de 20 líneas, tendríamos 220 bytes = 1.048.576 bytes = 1.024 Kb = 1 Mb.

características de la memoria

Algunas de las características fundamentales de las memorias (de cualquier tipo) son las siguientes:

  Volatilidad.

Se dice que la información almacenada en una memoria es volátil siempre y cuando corra el riesgo de verse alterada en el caso que se produzca algún fallo de suministro de energía eléctrica (memorias de biestables). No son volatiles aqueyas en las que la información, independientemente o no que exista algún fallo en el fluido eléctrico, permanece inalterada.

  Tiempo de acceso.

Es el tiempo que transcurre desde el instante en que se lanxza la operacion de lectura en la memoria y el instante en que se dispone de la primera información buscada.

En la memoria principal este tiempo es, en principio, independiente de la dirección en la que se encuentre la información a la que queremos acceder.

  Capacidad.

Número de posiciones de memoria de un sistema (número de informaciones que puede contener una memoria).

La capacidad total de memoria será un dato esencial para calibrar la potencia de un ordenador. La capacidad de la memoria la medirremos en múltiplos de byte (8 bits): Kilobytes (1024 bytes) y Megabytes (1024 Kilobytes).

  Caudal.

Número máximo de informaciones leídas o escritas por unidad de tiempo.

tipos de memoria

Dentro de la memoria principal, existen dos dibisiones, en función de las posibilidades de lectura/escritura o solamente lectura: RAM y ROM.

·         Memorias RAM (Random Access Memory), memoria de acceso aleatorio o directo; esto quiere decir que el tiempo de acceso a una celda de la mepmoria no depende de la ubicación física de la misma (se tarda el mismo tiempo en acceder a cualquier celda dentro de la memoria). Son llamadas también memorias temporales o memorias de lectura y escritura. En este tipo de memorias leemos y escribimos a voluntad. Para escribir no hace falta el borado previo de las posiciones a grabar. Es la memoria destinada a contener los programas cambiantes del usuario y los datos que se vayan necesitando durante la ejecución de dichos programas. Es la memoria perfectamente flexible y reutilizable. Su inconveniente radica en la volatilidad al cortarse el suministro de corriente: si se pierde la alimentacion eléctrica, la información presente en la memoria se pierde. Por este motivo los datos y programas que el sistema debe mantener permanentemente para su funcionamiento no se almacenann en memoria de tipo RAM.

La memoria RAM se llama también memoria de usuario, por ser la memoria con la que trabaja el sistema para ejecutar los progamas encargados.

Cuando se hace referencia a la capacidad de memoria de un ordenador se está hablando de la memoria RAM del sistema.

·         Memorias ROM (Read Only Memory), memoria de solo lectura, llamadas también memorias residentes o permanentes. Son memorias que sólo permiten la lectura y no pueden ser reescritas. Su contenido viene grabado en orígen por el fabricante de la coputadora y no puede ser cambiado nunca. No es volátil, los datos almacenados permanecen aunque desaparezca el fluido eléctrico. Por lo demás funciona exactamente igual que la memoria RAM, pudiendo contener datos y código de programas. Debido a estas características, se usa para almacenar información vital para el funcionamiento del sistema. La gestión del proceso de arranque, el chequeo inicial del sistema, carga del sistema operativo y diversas rutinas de control de dispositivos de entrada/salida suelen ser las tareas encargadas a los programas grabados en ROM. Estos programas forman la llamada BIOS (o ROM-BIOS) (Basic Input Output System). Junto a la BIOS se encuentra el chip de CMOS donde se almacenan los valores que determinan la configuración hardware del sistema, como tipos de unidades, parámetros de los discos duros, fecha y hora del sistema... esta información no se pierde al apagar el ordenador. Estos valores se pueden modificar por medio del SETUP.

La memoria ROM constituye lo que se ha venido llamando Firmware, es decir, el software metido físicamente en hardware. De cara a los fines del usuario es una memoria que no sirve para la operación de su programa, sólo le aporta mayores funcionalidades (mayor “sabiduria”) del equipo.

Existen tipos especiales de memorias ROM en las cuales la información no ha sido grabada durante el proceso de fabricación:

·         Memorias PROM (Programmable ROM), llamadas ROM's programables, son memorias de tipo ROM pero suministradas virgenes para que el usuario programe su contenido en función del trabajo que le interese desarrollar en su equipo y una vez grabadas se convierten en ROM a todos los efectos. Se usan mucho para grabar constantes que dependen de cada usuario particular pero que son totalmente permanentes una vez definidos sus valores; por ejemplo un conjunto particular de símbolos convencionales o un allfabeto específico no estándar.

·         Memorias EPROM (Erasable PROM), llamadas PROM´s reprogramables, son del mismo tipo y finalidad que las PROM pero con la posibilidad de borrar su contenido en un momento determinado y reutilizarlas para contener otro programa distinto. Para ello la memoria dispone de una “ventana” de cuarzo a través de la cual mediante un fuerte rayo ultravioleta se puede borrar el contenido y protceder como si se tratara de una PROM virgen pendiente de grabar por primera vez.

dispositivos adicionales

Dentro del subsistema de memoria además de la memoria propiamente dicha, existen una serie de dispositivos adicionales como:

·         el registro de contenido de memoria (RCM): contendrá el valor que será escrito en una operación de escritura o el dato leído después de una operación de lectura.

·         el registro de direccion de memoria (RDM): contendrá la dirección de la celda que será accedida, tanto para escritura como para lectura.

·         la unidad de conntrol de memoria (UCM): se encarga de controlar las operaciones que deben realizarse en el subsistema de memria a instancias de las señales de control enviadas por la UC de la CPU.

memoria caché

Un tipo importante de memoria es la memoria caché. Funcionalmente, la memoria caché es igual a la memoria principal. Sin embargo, físicamente en el ordenador es un componente distinto (no es imprescindible que esté en los ordenadores). Se puede definir como una memoria rapida y pequeña, situada entre la memoria principal y el procesador, especialmente diseñada para contener información que se utiliza con frecuencia en un proceso con el fin de evitar accesos a otras memorias (principal), reduciendo considerablemente el tiempo de acceso al ser más rápida que el resto de la memoria principal.

Cuando el procesador lee datos o los almacena en la memoria principal, los datos también se almacenan en la memoria caché. Si el microprocesador los necesita de nuevo, los lee de la caché y no de la principal. Al ser ésta muy rápida la velocidad se incrementa dramáticamente.

La cantidad de memoria caché en un ordenador que disponga de esta memoria es bastante menor que la cantidad de memoria principal (no caché), y además la caché es bastante más cara.

 

unidad central de proceso. EL microprocesador.

La unidad central de proceso o CPU es el verdadero motor de un ordenador. Se encarga de realizar las tareas fundamentales:

·         Operaciones aritméticas

·         Direccionamiento de Memoria

·         Gestión de instrucciones

·         Control del transporte de los datos a través de los buses.

La CPU es el elemento principal de un sistema computerizado. Si hacemos un símil entre un ordenador y el cuerpo humano, la CPU hará el papel del cerebro: atender las solicitudes, mandar y hacer controlar la ejecución.

Un microprocesador es un circuito integrado o chip que contiene a la CPU y un conjunto de patillas. Su tamaño es algo menor que el de una caja de cerrillas. Los ordenadores equipados con microprocesadores se suelen conocer con el nombre de microordenadores, que son los ordenadores de pequeño tamaño y elevada capacidad que estamos acostumbrados a ver. Generalmente los términos CPU y microprocesador se usan indistintamente.

La CPU está compuesta por varios subsistemas. Principalmente son dos: la unidad aritmético lógica (ALU) y la unidad de control (UC). Otro componente muy importante son los registros. Comenzaremos viendo estos últimos:

registros

Los procesadores no suelen operar casi nunca directamente sobre la memoria principal. Coger los datos a operar directamente de la memoria principal sería lo ideal pero técnicamente sería muy caro de construir y seguramente muy lento. Resulta mucho más conveniente que los operandos sobre los cuales va a actuar el procesador sean traspasados previamente a unas pequeñas memorias auxiliares fijas y ultra rápidas. Estas memorias de altísima velocidad destinadas a memorizar los datos esenciales de cada instante del proceso se llaman registros, y están situados dentro del propio procesador. El tamaño de los registros suele ser el mismo que el bus de datos.

En cada procesador concreto habrá un número determinado de ellos, según los usos específicos que se tengan previstos. Estos usos pueden ser, por ejemplo, los siguientes:

·         instrucción que se esté ejecutando

·         primer operando de la instrucción que se esté ejecutando

·         segundo operando de la instrucción que se esté ejecutando

·         resultado de la operación

·         Información que será utilizada para calcular la dirección de memoria a la que se quiere acceder.

·         Información sobre la situación en la que ha quedado la CPU después de la ejecución de una instrucción (por ejemplo: resultado de la última comparación efectuada)

·         información que permita controlar el funcionamiento de la CPU.

·         dirección de la siguiente instrucción a ejecutar (es una dirección de memoria)

Los registros constituyen el nexo entre la CPU y la memoria. Los operandos sobre los cuales se aplica una instrucción deberán ser transportados previamente a los correspondientes registros desde la memoria principal y el resultado obtenido en el registro de resultado deberá transportarse a la ubicación deseada de la memoria principal.

unidad de control

La unidad de control dirige todas las actividades del ordenador. Actúa como el corazón del sistema, enviando impulsos eléctricos (señales de control) para secuenciar (poner en orden) y sincronizar (marcar el tiempo) el funcionamiento de los restantes componentes.

Para alcanzar la sincronización de todo el sistema, la UC tiene un componente denominado reloj, que se describe a continuación:

reloj

El microprocesador está conectado a una oscilador que genera impulsos (señales eléctricas) igualmente espaciados en el tiempo (a intervalos constantes de tiempo), y que se suele conocer como reloj. Estos impulsos forman una señal, que permite regular los instantes exactos en los que debe comenzar y finalizar el trabajo de un componente.. Esta será emitida por el reloj a una determinada frecuencia base. La frecuencia se mide en megahercios (MHz o millones de ciclos por segundo). El microprocesador recibe diccha señal y la divide para obtener otra señal con la frecuencia a la que el microprocesador es capaz de trabajar. Esta nuevas señal marca el ritmo con el cual se ejecutan todas las tareas.

Por ejemplo, el 8088 funciona a 4,77 Mhz, que es un tercio de la frecuencia base del reloj que usa, que es de 14,31818 Mhz.

Los más modernos microprocesadores alcanzan velocidades de cientos de MHz (300 Mhz alcanza el Pentium II, es decir, 300x106 Hz, lo que significa que el reloj genera 300 millon de pulsos por segundo, lo que suponiendo que cada instrucción a realizar por el microprocesador necesitara un ciclo de reloj, se podrían realizar 300 millones de instrucciones por segundo).

decodificador

Otro componente de la UC es el decodificador. El decodificador tiene como misión recibir el código de la operación a realizar y traducirla (decodificarla) en el conjunto de señales de control necesarias para llevarla a cabo. El funcionamiento del decodificador se basa, en los modernos microprocesadores, en la llamada lógica microprogramada. La interpretación de un código de instrucción se traduce en la ejecución de un microprograma que define los pasos elementales a realizar para ejecutar la instruccion deseada. El microprograma está almacenado en una zona de memoria denominada memoria de control.

registros de la UC

Hay que señalar la presencia dentro de la UC de varios registros. Aunque su número y su misión pueden variar en gran medida entre diferentes microprocesadores, de alguna manera siempre deben existir por lo menos dos:

·         el registro Contador de Programa

·         el registro de instrucciones

El primero de ellos, también conocido como PC (Program Counter) o IP (Instruction Pointer) almacena la dirección de la próxima instrucción a ejecutar.

El segundo, también conocido como IR (Instruction Register), almacena el código de la operación que está siendo ejecutada en un momento dado.

Por cada instrucción del programa que está siendo ejecutada por el sistema, la UC recorre una serie de etapas que se dividen en dos fases:

·         Fase de busqueda e interpretación:

El objetivo de esta fase obtener el código de la siguiente instrucción a ejecutar y que se encuentra almacenada en la memoria principal. Los pasos a grandes rasgos son:

  Recobrar la instrucción de la memoria del ordenador. La instrucción a recobrar se encuentra en la dirección señalada por el registro IP. El córdigo de la instrucción leída pasa al RI donde será decodificada.

  Interpretar el código de la instrucción. La instrucción que después de obtenida se guarda en el IR, pasa a través del decodificador el cual genera las señales de control asociadas al código de la instrucción

  Se incrementa el IP en uno y así se apunta a la siguiente instrucción a ejecutar.

·         Fase de ejecución propiamente dicha:

Durante el ciclo de ejecución la instrucción interpretada es ejecutada enviando a cada componente las señales de control generadas. Los pasos son:

  Se obtienen los datos implicados en la instrucción si es necesario

  Se ejecuta la instrucción

unidad aritmético-lógica

La unidad aritmético-lógica es la parte del microprocesador que realiza los cálculos y las operaciones con los datos indicados en las instrucciones. Podríamos llamarla “calculadora” si únicamente realizase operaciones aritméticas, pero como es capaz de realizar operaciones del varios tipos es mejor llamarla unidad aritmético-lógica para destacar que es capaz de realizar operaciones lógicas. Estas operaciones lógicas que la ALU puede realizar son, en realidad, la simple aplicación de unas reglas simples de comparacion de dos datos. Pueden establecerse comparaciones de igual, mayor que, menor que, menor o igual que y mayor o igual que. Usando estos tipos de instrucciones el ordenador podrá simular el comportamiento logico humano y adoptar actuaciones diferentes frente a situaciones diferentes. Pero esto no es inteliwgencia automática o inteligencia artificial: debe ser el programa realizado por el programador el que contemple convenientemente el uso de estas instrucciones para simular la capacidad de decisión que la inteligencia comporta.

La ALU posee una circuiteria que le proporciona la capacidad de realizar estas operaciones aritméticas y lógicas con los datos. El conjunto de operaciones que puede llevar a cabo la ALU están concebidas y fijadas durante su diseño. en el caso de una ALU elemental, ésta podrá: sumar, restar, realizar operaciones lógicas (Y, O, NO) y relacionales (=, >, <, >=, <=, <>). El resto de operraciones se realizarán a partir de las operaciones elementales, por ejemplo multiplicar dos números se haría mediante una sucesión de sumas.

Podemos hacer un símil entre un ordenador y una orquesta dirigida por un director de orquesta. Toda la orquesta compondría el hardware del sistema. El director de orquesta actuaría como el microprocesador: su labor es leer una serie de instrucciones (partitura) y enviar órdenes al resto de la orquesta para que ésta “funcione”. Los músicos y sus instrumentos funcionarían como elemento periféricos: reciben órdenes del microprocesador y actúan en consecuencia. La partitura del director sería el programa, que está almacenado en la memoria del ordenador: sin tal partitura, la orquesta no hace nada. La labor del director es ir tomando las instrucciones escritas en la partitura y dar las órdenes correspondientes a los músicos. El director no haría nada por iniciativa propia: solamente lee la partitura y actúa en consecuencia.

En el símil anterior de la orquesta, quizás la parte que más adecuadamente se ajuste a la labor del director de orquesta es la unidad de control: no toca ningún instrumento, pero su batuta es la que hace que cada instrumento intervenga en el momento oportuno. Para marcar los intervalos precisos de tiempo de las actividades de todos los dispositivos que que controla, la unidad de control dispone - también a semejanza de un dirécto de orquesta- de un cadenciómetro para lograr la sincronización. En un microprocesador esta labor la lleva a cabo el reloj.

repertorio o juego de instrucciones

La potencia de un microprocesador dependerá de su velocidad en la ejecución de las instrucciones pero también del tipo, variedad y riqueza de operaciones que sea capaz de realizar. Cada microprocesador dispone de un repertorio de instrucciones propio, que se conoce como juego de instrucciones del microprocesador. Este juego depende de la circuitería interna con la cual ha sido diseñado. La programación íntima y verdadera del procesador debe hacerse usando ese juego de instrucciones de que de la máquina concreta con la que estemos trabajando. Afortunadamente, existen lenguajes de programación que nos evitan tener que aprender el lenguaje de cada máquina particular.

Dentro del repertorio completo de instrucciones del microprocesador existirán un conjunto asociado a las distintas operaciones que puede realizar la ALU. Cuando la UC identifica un código de instrucción que indica una determinada operación de la ALU, generará las señales oportunas para activar la operación correspondiente dentro de la ALU.

El formato general de las instrucciones que son ejecutadas por el microprocesador se ajusta al formato:

<Código de operación> <Operando 1> <Operando 2>

Pueden existir operaciones que solo contengan un operador o incluso ninguno.

Supongamos un microprocesador que puede realizar la siguiente operación:

Sumar el contenido de un registro con un determinado valor y guardar el resultado en el propio registro.

Consideremos que el código de dicha operación es 0011. El registro se llamará A, y el valor a sumar es 2. La instrucción que debería recibir el microprocesador para sumar el contenido de A con el valor 2 es:

0011 0010 (código de operación, y primer y único operando)

Al entrar en un ciclo de búsqueda la UC extraerá desde la posición de memoria señalada por IP el código de la siguiente instrucción a ejecutar. Al recibir el código de instrucción 0011 se enviarán las señales de control necesarias para:

  Hacer llegar los operandos implicados en la suma a la ALU (contenido del registro A, y valor 0010)

  Indicarle a la ALU que debe prealizar una operación de SUMA.

  Almacenar el resultado de la suma efectuada en el registro A

Estas señales son una simplificación de todas las señales elementales que habrían de ser generadas.

La popularización de los microordenadores comenzó en los años 70 con el ordenador Apple II, sin embargo su impacto comercial comienza cuando IBM lanza en 1981 su ordenador personal PC (“Personal Computer”) basado en el microprocesador 8088 de Intel. A este lanzamiento le siguieron otros muchos fabricantes: Compaq, ALR, Olivetti, Tandom, Hewlett-Pakard, etc... Desde entonces la evolución ha sido continua en la aparición de nuevos microprocesadores y modelos de microordenadores cada vez más potentes y veloces. Hoy en día prácticamente todos los fabricantes de ordenadores comercializan ordenadores personales. Se puede decir en comparación con la industria del automóvil, que los ordenadores personales vienen a ser los utilitarios de la Informática.

Actualmente la mayor parte de los microordenadores están basados en dos grandes familias de microprocesadores: la Intel y la Motorola. La familia Intel (8088, 8086, 80286, 80386, 80486, Pentium) es la base de todos los ordenadores IBM y compatibles (PC, XT, AT, PS/2, 386, 486, Pentium). La familia Motorola (68000,68010, 68020, 68030, 68040) es la base de los ordenadores Apple Macintosh.

Son especialmente populares los ordenadores de tipo PC. A este tipo de ordenadores están orientadas la mayoría de las descripciones presentes en este tema.

procesadores risc y cisc

Existen en la actuaflidad dos grandes tendencias en la construcción de procesadores. Éstas se diferencian esencialmente en las características de su repertorio de instrucciones.

  Los procesadores CISC (Complex Instruction Set Computer) tienen un repertorio con un número de instrucciones alto (200-300); estas instrucciones además son más complejas que las de RISC, con lo que la circuitería necesaria para decodificación y secuenciación también aumenta, y la velocidad del proceso disminuye. Como ventaja, tenemos que se necesitan menos insttrucciones para ejecutar una tarea. Además, el formato de las instrucciones es bastante variable (es decir, hay bastantes formatos). Además, el diseño hace que el procesador tenga que realizar constantes accesos a memoria.

Este tipo de procesadores es en el que se basan los PC´s.

  Los procesadores RISC (Reduced Instruction Set Computer) tienen características opuestas a los CISC. Su juego de instrucciones es más reducido (menos de 128), y las instrucciones son más sencillas (con lo que se necesitarán más instrucciones para ejecutar una tarea). El formato de instrucciones es fijo (o serán pocos formatos), con lo que el control del hardware es más sencillo y se facilita la colocación de las instrucciones en la memoria, lo que implica que los accesos a la memoria se aceleren. Por otra parte, estos accesos a memoria son menos frecuentes ya que el procesador posee un mayor número de registros.

Estos procesadores son los que están presentes en las estaciones de trabajo. Como ejemplos podemos citar los procesadores ALPHA de Digital Equipment, y los SuperSPARC y MicroSPARC de Sun Microsystems y Texas Instruments.

Relacionada con los conceptos RISC y CISC está la técnica pipeline; esta técnica consiste en dividir la ejecución de la instrucción en bloques independientes que se ejecutan en paralelo. Es hmás eficiente para los procesadores RISC, aunque también se implementa en CISC.

monitor

El proceso de visualización de datos es posible gracias al sistema de vídeo del ordenador. Un sistema de vídeo consta del monitor, tarjeta gráfica y programa controlador.

El monitor visualizar la jinformación que se genera en el programa que se ejecute en el ordenador. Está controlado por la tarjeta gráfica. El tamaño del monitor viene dado por la longitud de la diagonal de la pantalla. Los habituales son de 14, 15, 17, 20 y 21 pulgadas.

El ordenador manda informaciones a la tarjeta de vídeo, y el monitor transforma esas informaciones en un rayo electrónico que ilumina la pantalla en un punto. Esto todavía no conduce a la formación de una imagen completa, sino tan solo contribuye a la formación de un minúsculo punto luminoso (PIXEL). La imagen del monitor constará de muchos de esos puntos. El rayo electrónico se moverá desde la esquina superior izquierda de la pantalla hasta la inferior derecha, siguiendo un movimiento horizontal y otro vertical. De esta forma crea consecutivamente uno tras otro todos los puntos de la pantalla que sonn necesarios para crear una imagen completa, a partir de señales que envía la tarjeta de vídeo. Para que el primer punto permanezca visible mientras el rayo electrónico está iluminando al último, la parte interior de la pantalla está recubierta por una ckapa de numerosísimas partículas fosforescentes, que tienen como misión prolongar durante un cierto tiempo la iluminación que les ha sido transferida. En el momento en que se ha conseguido una imagen completa, el rayo electrónico vuelve a posicionarse en la esquina superior izquierda para enviar un nuevo impulso de iluminación.

Se conoce como frecuencia de barrido vertical o frecuencia de refresco de pantalla al número de veces por segundo que el rayo electrónico recorre la pantalla. La frecuencia de refresco de imagen en monitores de PC usuales se encuentra entre 50 y 70 Hertzios (Hz). Esto significa que la imagen completa se construye de 50 a 70 veces por segundo. Cuanto más elevada sea la frecuencia, más tranquila aparecerá la imagen. El ojo humano es capaz de registrar del orden de 25 imágenes por segundo y por tanto se muestra demasiado perezoso para darse cuenta de forma notable de esta sucesión de repetición de la imagen. El trabajo con la pantalla resulta mucho menos cansado en el supuesto de un monitor de 70 Hz.

Existen dos técnicas de barrido: los monitores “no entrelazados” barren todas las líneas horizontales sin saltarse ninguna. Los monitores “entrelazados” barren una línea de cada dos, barriendo en la siguiente pasada las líneas saltadas.

El programa controlador o driver es el elemento software encargado de la comunicación entre los programas de aplicación y la tarjeta gráfica. Estos controladores relacionan el formato del programa principal con el que maneja el procesador gráfico.

La tarjeta gráfica es interface hardware que controla el monitor. Actúa como punto de conexión entre el monitor y el procesador. Los elementos que componen una tarjeta gráfica son:

conexión con el PC: parte de la tarjeta que se insertará en el slot del ordenador.

conector para el monitor: sirve para enviar la información de la tarjeta al monitor; consiste en un “enchufe” especial de 15 pins.

Memoria de pantalla: los tipos de memorias que puede contener una tarjeta gráfica son:

·         ROM (ROM de vídeo). Contienen los juegos de caracteres, gráficos y numéricos y los formatos para la conversión de formasto ASCII a patrones de puntos.

·         DRAM (RAM dinámica). Es la más general y es “monotarea” (sólo puede leer o escribir datos al mismo tiempo, ya que sólo dispone de un puerto de comunicaciones.

·         VRAM (RAM de vídeo). Es más beloz, porque dispone de dos puertos de comunicaciones para permitir lectura y escritura simultáneas.

·         En los últimos tiempos han comenzado a usarse otros tipos de RAM, como EDO RAM, WRAM, SGRAM y RAMBUS, que ofrecen mejoras en los tiempos de acceso y mayor velocidad de transferencia.

controladora de vídeo: reproduce total o parcialmente el contenido de la memoria de pantalla en intervalos periódicos de tiempo.

teclado

Hoy por hoy, el dispositivo principal de introducción que le sirve al usuario como medio de comunicación con el ordenador sigue siendo el teclado, si bien en entornos gráficos es casi imprescindible además el uso de un ratón. Desde siempre ha sido considerado como parte fija del ordenador, por ejemplo las antiguas consolas y terminales, pero para aumentar la comodidad y eficacia se separó del mismo, aunque manteniéndose unido a través de un cable.

No todos los teclados se adaptan a cualquier ordenador. Esto proviene del tipo de ordenador, en el cual IBM marcó las diferencias.

el teclado pc/xt

Los primeros PC de IBM que se lanzaron al mercado lo hicieron con un teclado albergado en una pesada carcasa metálica. Estaban equipados con un total de 83 teclas exactamente. A diferencia de los teclados usuales de hoy en día, no disponían de indicadores LED que anúnciasen el status de las teclas Num Lock, Caps Lock y Scroll Lock. Las teclas de función desde F1 hasta F10 se localizaban en dos filas verticales en el lado izquierdo del teclado. La tecla Esc se encontraba en el campo de letras y números en la esquina superior izquierda al lado del 1.

el teclado pc/at

En los ordenadores de la clase AT desarrollados posteriormente por IBM se llevó a cabo una ligera modificación por parte de IBM, pero dentro de la misma carcasa. La situación de la mayoría de las teclas se conservó sin modificaciones. Las teclas numéricas, de control del cursor y las de cálculo se agruparon en un bloque aparte, que se colocós en el margen derecho del teclado. Además fue albergada allí una segunda tecla Intro. Pero tampoco se disponía de indicadores LED parga el status del teclado.

el teclado at ampliado

Partiendo del teclado antes descrito, el teclado AT, se llevó a cabo nuevamente una importante ampliación que sí modificó de forma esencial el mismo. El número de teclas de función se aumentó de 10 a 12, a la vez que fueron albergadas en línea horizontal en la parte superior del teclado. A la izquierda de esta línea se albergó la tecla Esc y a la derecha se instalaron tres adicionales de función fija (Imp Pant, Bloq Despl y Pausa). Entre el teclado alfanumérico y el numérico se albergaron 10 teclas adicionales (las cuatro direcciones del cursor, Insertar, Suprimir, Inicio, Fin, Avanzar Página y Retroceder Página)

Algunas teclas se encontraban repetidas para posibilitar un uso más flexible. Por esto es por lo que el teclado ampliado para AT recibió el nombre de MF (Multi Function). Una ampliación muy útil fue la instalación de LED's para el estado del teclado.

el teclado de windows 95

Con la llegada de Windows 95, Microsoft ha diseñado un nuevo teclado, el cual a parte de ser un teclado estándar AT, añade unas teclas específicas con determinadas tareas propias de este sistema operativo.

el código de teclas (scan code)

Cada vez que una tecla es pulsada, se transmite un determinado código de tecla desde el procesador del teclado a la CPU. Esta traduce el código de teclas en el símbolo correspondiente. Es por lo que es posible desarrollar diferentes dispositivos de teclado para distintos idiomas, y siempre conservando las mismas teclas.

Las distintas clases de teclados no sólo se diferencian en lo referente a sus teclas, sino también en lo que se refiere al código de teclas. Así, por ejemplo, el tmeclado del XT envía al apretar la tecla de espacio el código de teclas 57 a la CPU, mientras que el teclado AT mandaría el código 61. Así podemos deducir fácilmente que los teclados no son intercambiables directamente entre distintos tipos de PC.

Los ordenadores actuales, independientemente de la clase a la que pertenezcan, disponen todos de teclados del tipo MF (con o sin las teclas de Windows 95) .Un pequeño interruptor casi siempre situado en la base de la carcasa del teclado, hace que el teclado se adapte a un XT o a un AT.

teclados especiales

Actualmente exmisten en el mercado teclados especiales que disponen, a parte de funciones de teclado “normales”, de un Trackboard integrado. Un Trackboard integra en el teclado las funciones propias del ratón. Se trata en este caso de un teclado MF completo, en cuya carcasa se encuentra adicionalmente instalada una bola que puede girar libremente. El trackboard tiene la misma utilidad que un dispositivo de ratón, es decir, el cursor se mueve libremente sobre la pantalla siguiendo las indicaciones del Trackball. Tres teclas adicionales simulan las teclas del ratón.

Por último, indicar que al conjunto de monitor más teclado se le suele conocer como consola.

ratón

El uso del ratón facilita enormemente el trabajo, especialmente en entornos gráficos. El ratón forma parte de la categoría de dispositivos periféricos de entrada y actúa como puntero.

La mayoría de los ratones trabajan mecánicamente (ratón mecánico). En su parte inferior se encuentra instalada una bola de acero recubierta de goma. Al mover el ratón sobre una superficie, el movimiento de rotación de la bola se transmite a los discos de codificación a través de dos bolas de acero. El movimiento de estos discos de codificación es captado por los registradores ópticos y transmitidos a la electrónica del ratón. Allí serán finalmente traducidos los valores de movimiento en señales en serie, y sferán a continuación transmitidos a través de un bus a la CPU. Un programa de configuración previamente cargado y residente en la memoria recibe los datos de movimiento del ratón en unidades Mickey (1/100 pulgadas).

A diferencia del ratón mecánico, el ratón óptico no necesita estar físicamente conectatdo al ordenador mediante un cable. Todos los ratones tienen en común dos o tres teclas de ratón en su parte superior.

impresora

La impresora es un periférico de salida, por medio del cual transferimos los datos al papel.

En principio cualquier impresora puede ser instalada en cualquier PC compatible, sguponiendo que los dos aparatos dispongan de la conexión adecuada. La conexión de la impresora se realiza sin problemas con un cable Centronics en paralelo de los que habitualmente se encuentran disponibles en el mercado.

No obstante, pueden surgir numerosos problemas a la hora de realizar la adaptación de la impresora. Pero en la mayoría de los casos se trata de un problema de colaboración entre el programa de aplicación y la impresora. No es el ordenador el que se tiene que adaptar a la impresora o viceversa, sino que es el programa de aplicación el que se tiene que adaptar af la impresora.

 

 

impresora matricial

Estas impresoras componen cada signo a imprimir a través de una matriz de puntos. Cuanto más compactos estén colocados estos puntos de impresión, más legible resultará la resolución de la imagen impresa.

En el mercado podemos encontrar impresoras con diferente número de agujas: 9, 18, 24, 48… Cuantas más agujas se tegngan, menos reconocibles son cada uno de los puntos y en consecuencia el signo impreso se hace más nítido y legible (mayor calidad cuanto mayor número de agujas).

Para mejorar el resultado final de la imagen escrita, un gran número de impresoras ofrecen el denominado modo NQL (Near Letter Quality). Con este sistema, cada signo se imprime dos veces, pero no superpuesto, sino ligeramente desplazado. Mediante este sistema se consigue una mayor densidad de puntos. Sin embargo, la repetición de la impresión hace que se emplee más tiempo.

impresora de chorro de tinta

Otra técnica de impresión es el sistema de chorro de tinta, el cual se diferencia del anterior sobre todo en lo que se refiere a su trabajo silencioso; es decir, que prácticamente trabaja sin ruido. También la velocidad de impresión es en este caso más elevada, y lo mismo ocure con la calidad de impresión. Además no se precisa cinta de impresión. El cabezal de impresión no se pone en ningun momento en contacto con el papel; en realidad se imprimen minúsculas gotitas de tinta al papel a presión, a través de pequeños tubos accionados por impulsos eléctricos. De esta forma una pequeña cantidad de tinta sale a fuerte belocidad, y prácticamente se seca cuando se pone en contacto con el papel.

Como inconvenientes de esta técnica de impresión podemos decir que no se pueden usar papeles de calco, y que no se puede usar cualquier papel si queremos una impresión de calidad. El papel ha de ser muy absorbente pero no muy basto para que la tinta no se corra.

impresión térmica

Es una técnica de impresión menos extendida. Se basa en el sistema de termorreacción y la técnica de transferencia térmica. Las impresoras térmicas exigen un papel especial que libera color a través de una reacción química que se produce en presencia de calor. La materia colorante del papel térmico, al reaccionar con el calor producido por el cabezal de la impresora, crea la imagen de impresión. Estas impresoras no necesitan ningún tipo de cinta y la impresión que se produce es extremadamente silenciosa. Suministran una impresión muy nítida con un negro intenso. El gran inconveniente es que no son recomendables para importantes volúmenes de papel debido fundamentalmente a su elevado coste.

impresoras de margarita

Emplean el mismo principio de impresión que las máquinas de escribir de margarita. Los caracteres de impresión (típicamente 96) se encuentran albergados en un pequeño disco que gira hasta conseguir la posición adecuada. A continuación, un mabrtillo golpea el carácter contra la cinta, llevando el símbolo al papel.

La velocidad de impresión es mucho más lenta que en las vistas hasta ahora, pero la impresión ofrecida es precisa y nítida. Otro inconveniente es el elevado ruido que provocan.

impresoras láser

Es la de más aceptación en la actbualidad, junto con las impresoras de chorro de tinta. Ofrece gran variedad de tipos de escritura, un nivel de ruido mínimo y una elevada rapidez en el trabajo.

Utilizan básicamente la misma técnica de impresión que las fotocopiadoras. La impresión no es línea a línea, sino por páginas. Esto le obliga a disponer de una memoria de trabajo lo suficientemente grande. Las representaciones gráficas fácilmente ocupan varios Mbytes, mientras las matriciales debido a su técnica de impresión por líneas, necesitan solamente un buffer de unos pocos Kbytes.

El color se lleva al papel mediante carboncillo (tóner), qbue es incinerado a continuación. La luz y el calor de un láser crean la imagen de impresión. Una característica más importante de estas impresoras es que el texto y los gráficos se elaboran e imprimen conjuntamente. La calidad de impresión es muy alta y también lo es la velocidad.

Un grupo especial entre las impresoras láser lo constituyen las denominadas láser PostScript. Bajo este concepto se entiende un lenguaje de impresión de páginas. A través de este lenguaje, los contenidos de cada página no son enviados a la impresora en forma de matriz de puntos,sino en forma de gráfica vectorial. Mientras que la impresora en el sistema convencional recibe del ordenador cadav uno de los puntos a imprimir, con este lenguaje se puede comunicar a la impresora instrucciones del tipo “imprime un círculo con centro en el centro de la página, 5 cm de radio y 2 mm de grueso de línea”.

tableta digitalizadora

En una tableta digitalizadora representaremos dibujos del mismo modo que en una mesa de dibujo. Los movimientos del lápiz de dibujo se traducen en informaciones digitales que se envían al ordenador a través de un cable serie. De esta forma el dibujo puede ser almacenado dve forma completa en disquetes o discos duros y posteriormente podrá ser cargado y modificado.

scanner

Para poder llevar datos ya existentes (como por ejemplo textos o gráficos que ya se encuentran impresos) a un soporte informático (para poder por ejemplo mezclarlos con otros datos o continuar elaborándolos) podemos usar un scanner, que leerá la información y la introducirá en el ordenador.

plotter

Es un periférico de salida con el que se pueden representar dibujos. Lo específico de los plotters es que se consigue una precisión extremadamente elevada en la representación gráfica.

A diferencia de las impresoras, el papel no se conduce siempre en el mismo sentido, sino que es capaz de avanzar y retroceder.

La aplicación principal de los plotters se encuentra sobre todo en las estaciones de diseño asistido por ordenador (CAD) en las cuales se crean dibujos técnicos, construcciones arquitectónicas y croquis con la ayuda de programas especiales, que posteriormente serán impresos.

modem

El módemn, que sirve para la transmisión de datos a distancia, puede actuar tanto como dispositivo de entrada como de salida. Con un módem es posible enviar y recibir datos de un ordenador a través de una línea telefónica o de cualquier otro tipo de transmisión de datos.Pueden estar integrados en tarjetas de expansión internas, o ser externos (conectados a través de un puerto y cable serie).

Módem significa MOdulador/DEModulador. Esencialmente su función es la de convertir los datos digitales generados por el ordenador, en información analógica que puede discurrir por la línea telefónica. El módem receptor a su vez debe volver a digitalizar la información que le llega para transmitirla al PC al que esté conectado.

tarjetas de comunicaciones

Los elementos que se van a describir dentro de este apartado entrarían más dentro de la clasificación de conexiones que en la de periféricos, ya que sirven de conexión entre un periférico externo y el ordenador.

puerto paralelo

A veces denominado puerto de impresoras, ya que su función principal consiste en la transmisión de datos a una impresora mediante un cable de impresora en paralelo (Centronics).

La denominación de puerto parallelo proviene del hecho de que esta conexión realiza transmisión de datos en paralelo (8 bytes simultáneamente).

puerto serie

Se diferencia fundamentalmente del paralelo en que la transmisión se realiza bit a bit consecutivamente. Por lo tanto la transmisión será más lenta.

En principio el puerto serie estaba pensado para hacer posible la transmisión de datos mediante un módem. Más tarde se idearon otros dispositivos periféricos, tales como ratones, impresoras…

adaptadores de red

Los adaptadores de red, tarjetas de red o tarjetas de comunicaciones son unas extensiones especializadas en la conexión del PC con una red de ordenadores.

unidades de disco

Existen varios tipos, en función del soporte: unidades de disquetes, unidades de discos duros, unidades de CD-ROM… Actualmente han alcanzado cierta popularidad las unidades ZIP y también han aparecido en el mercado las unidades lectoras de DVD.

Los discos son gestionados por un controlador de disco, que es un dispositivo electrónico que transforma las órdenes del ordenador en movimientos de la unidad de disco. Este controlador hará las funciones propias de interface que ya se han comentado.

Por ejemplo, en el caso de los discos duros, la controladora efectuará la conexión entre la unidad de disco duro y el bus de datos. Para ello, fundamentalmente se ocupará de:

·         traducir los datos del “emisor” a una forma comprensible para el “receptor” (TRADUCTOR DE DATOS)

·         reglamentar la secuencia de tiempo de emisión y recepción (SEMÁFORO DE DATOS)

y además tendrá que ser rápido y corregir las deficiencias de lectura.

En la actualidad los dos modelos de controladoras que se reparten el mercado son las IDE y las SCSI.

 

 

documentación

La documentación es una parte muy importante del sistema. Se entiende por documentación tanto los manuales del sistema, como los contratos de venta o alquiler del mismo, o la relación de puestos de mantenimiento y venta de componentes del sistema.

El hardware viene documentado por los manuales técnicos, que especifican las características físicas del sistema: dimensiones, peso, alimentación eléctrica, etc.

Asimismo, el software ha de estar documegntado mediante los correspondientes manuales del sistema operativo y sus utilidades, así como los manuales de todos los lenguajes que incluye el sistema.

Una buena documentación debe permitir al propietario del sistema llevar a cabo las siguientes funciones:

  Comprobar que el sistema recibido se encuentra en perfecto estado y con todos los componentes hardware y software que lo integran.

  El correcto aprendizaje y utilización del sistema por parte del usuario no informático.

  La facilidad de adiestrarse en una utilización global e intensiva del sistema, por parte del personal especializado.

  La especificación de las futuras ampliaciones a que puede verse sometido el sistema, tanto desde el hardware como desde el software.

Para ello la documentación ha de incluir las siguientes partes:

  Una lista completa de los números de serie, versión revisión de todo el hardware y software suministrado.

  Un manual del usuario escrito de forma accesible.

  Un manual de mantenimhiento del sistema por parte del personal no informático.

  Una breve explicación del uso de todas las partes del sistema (teclado, pantalla, lectoras de disco, etc.) y de todo el software suministrado. Estas explicaciones deben estar escritas de forma clara y concisa.

  Esquemas de todos los circuitos internos del ordenador, especificando los componentes utilizadohs.

  Listados fuente del Sistema Operativo.

  Explicación de la estructura del sistema operativo, sus subrutinas y puntos de llamada.

  Manuales de todos los lenguajes soportados por el ordenador, incluyendo mapas de memoria para cada compilador o ensamblador.

  Especificaciones de las modificaciones a realizar en el sistema para la ejecución de ciertos programas.

  Una completa relación de todos los mensajes de error, su causa y su solución.

  Todos los manuales y escritos presentados han de estar perfecta y profundamente indexados.

  Relaciones de todos los sumstradores de ampliaciones para el sistema, tanto para el hardware como para el software.

3. COMPONENTES LÓGICOS (DATOS Y SOFTWARE)

3.1 DATOS

La palabra datos proviene del latín datum (plural data) que significa “lo que se da”, en el sentido de “lo que acontece”. El diccionario de la Real Academia de la Lengua Española dice que los datos son: “antecedentes necesarios para llegar al conocimiento exacto de una cosa o para deducir las consecuencias legítimas de un hecho”.

Los datos suelen ser magnitudes numéricas directamente medidas o captadas, pero también pueden ser nombres o conjuntos de símbolos; o valores cualitativos; o frahses enteras, premisas, imágenes, sonidos, colores…

Los datos, la información, se representa mediante secuencias de símbolos. Por ejemplo, en nuestra vida diaria representamos las palabras mediante letras tomadas de nuestro alfabeto. Éste es simplemente uno entre los muchos alfabetos existentes. Una misma letra puede tener sonidos diferentes según el idioma que se esté usando, y una palabra con sentido en un idioma puede carecer de él. Además, los símbolos que empleamos para representar los números son los dígitos del 0 al 9. Existen otros sitemas como el heredado de los romanos, que es más difícil de usar.

Si pensamos en el párrafo anterior, vemos queloque ocurre es que en base a un alfabeto cualquiera que establecemos por un acuerdo cultural, podemos representar cualquier información compuesta de palabras y cantidades numéricas, y así el que lee entenderá al que escribe.

Un alfabeto no es más que un conjugnto, fijado por acuerdo cultural, de símbolos elementales en base a los cuales se forma la información. Es importante recalcar la arbitrariedad de cualquier alfabeto porque si la informática ha logrado el tratamiento automático de la información con máquinas, ha sido gracias a este concepto. No es necesario que el alfabeto que usa una moquina en su interior sea el mismo que el que utiliza el hombre que la ha construido y la maneja, basta con que la traducción de los símbolos internos a los externos o viceversa se efectúe de una manera cómoda, y a ser posible (y lo és) automáticamente por la propia máquina.

Cuando una información que originalmente venía representada en un alfabeto A1 es transcrita a un segundo alfabeto A2, se dice que ha sido codificada. Así, se puede definir un código como una representación unívoca de las informaciones de tal forma que a cada una de éstas se le asigna una combinación de símbolos determinada. Un ejemplo clásico es el código Morse empleado en los inicios de la telegrafía.

Cuando los símbolos a codificar (alfabeto A1) son transcritos a secuencias de un alfabeto (alfabeto A2) que sólo tiene dos símbolos, diremos que tenemos un sistema de codificación binaria. Estos sistemas son especialmente importantes en informática, pues son los que se usan habitualmente. El motivo para usar un alfabeto de tan sólo dos símbolos es de tipo técnico, como ya veremos.

3.1.1 sistemas de numeración

Nuestro sistema de numeración habitual es de base 10 (o decimal), es decir:

·         Existen 10 dígitos (0, 1, …, 9) posibles en cada posición del número.

·         Numerando de derecha a izqhuierda los dígitos de un número, empezando con el cero, el valor (peso) de posición del dígito n es 10n.

Por ejemplo, 1234 en base 10 quiere decir:

1×103 + 2×102 + 3×101 + 4×10

 

 

 

 

 

3.3 CATEGORÍAS DE COMPUTADORAS Y SISTEMAS DE CÓMPUTO



Tipos de Sistemas Operativos

Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco.

Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.

Los sistemas operativos más conocidos son los siguientes:

1) DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más conocido por los nombres de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software Microsoft y es en esencia el mismo SO que el PC-DOS.

La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.

Cuando Intel liberó el 80286, DOS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.

Aún con los nuevos sistemas operativos que han salido al mercado, todavía el DOS es un sólido contendiente en la guerra de los SO.

2) Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla que representan diferentes archivos o programas, a los cuales se puede accesar al darles doble click con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases.

3) Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores aplicaciónes para mejorar la eficacia del trabajo.

4) Windows NT: Esta versión de Windows se especializa en las redes y servidores. Con este SO se puede interactuar de forma eficaz entre dos o más computadoras.

5) OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy buena. El problema que presenta este sistema operativo es que no se le ha dad el apoyo que se merece en cuanto a aplicaciones se refiere. Es decir, no se han creado muchas aplicaciones que aprovechen las características de el SO, ya que la mayoría del mercado de software ha sido monopolizado por Windows.

6) Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan amigable para el usuario que cualquier persona puede aprender a usarlo en muy poco tiempo. Por otro lado, es muy bueno para organizar archivos y usarlos de manera eficaz. Este fue creado por Apple Computer, Inc.

7) UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las bases para la supercarretera de la información. Unix es un SO multiusuario y multitarea, que corre en diferentes computadoras, desde supercomputadoras, Mainframes, Minicomputadoras, computadoras personales y estaciones de trabajo. Esto quiere decir que muchos usuarios puede estar usando una misma computadora por medio de terminales o usar muchas de ellas.

 

 

 

 

 

 

 

 

 

 

 

 

3.4 TIPOS DE SOFTWARE

Tipos de software

El término software (partes suaves o blandas en castellano) hace alusión a la sumatoria de aquellas reglas, programas, datos, documentación e instrucciones que permiten la ejecución de múltiples tareas en un ordenador. Es su parte lógica e intangible y actúa como nexo entre el usuario y el hardware (partes duras), es decir, la parte tangible de la computadora.

A grandes rasgos, se puede decir que existen tres tipos de software:

Software de Aplicación: aquí se incluyen todos aquellos programas que permiten al usuario realizar una o varias tareas específicas. Aquí se encuentran aquellos programas que los individuos usan de manera cotidiana como: procesadores de texto, hojas de cálculo, editores, telecomunicaciones, software de cálculo numérico y simbólico, videojuegos, entre otros.

Software de Programación: son aquellas herramientas que un programador utiliza para poder desarrollar programas informáticos. Para esto, el programador se vale de distintos lenguajes de programación. Como ejemplo se pueden tomar compiladores, programas de diseño asistido por computador, paquetes integrados, editores de texto, enlazadores, depuradores, intérpretes, entre otros.

Software de Sistema: es aquel que permite a los usuarios interactuar con el sistema operativo así como también controlarlo. Este sistema está compuesto por una serie de programas que tienen como objetivo administrar los recursos del hardware y, al mismo tiempo, le otorgan al usuario una interfaz. El sistema operativo permite facilitar la utilización del ordenador a sus usuarios ya que es el que le da la posibilidad de asignar y administrar los recursos del sistema, como ejemplo de esta clase de software se puede mencionar a Windows, Linux y Mac OS X, entre otros. Además de los sistemas operativos, dentro del software de sistema se ubican las herramientas de diagnóstico, los servidores, las utilidades, los controladores de dispositivos y las herramientas de corrección y optimización, etcétera.