3.1 1 ESTRUCTURA
DE TECNOLOGÍAS DE INFORMACIÓN Y TECNOLOGÍAS
EMERGENTE
TECNOLOGÍAS
EMERGENTES
Un
panorama importante sobre algunas de las
tecnologías emergentes más relevantes en la actualidad, es el que presenta
el “Horizon Report” como parte de una serie de reportes anuales
internacionalmente reconocidos desde el 2002 al respecto. En el último reporte
del 2011, el dedicado al ámbito de la Educación Superior, el grupo de expertos
internacionales que lo realizó, analizó e identificó aquellas tecnologías
emergentes más relevantes que tendrán un impacto profundo en los próximos cinco
años en los ámbitos de la enseñanza, el aprendizaje y la investigación creativa
. Las seis tecnologías clave que se presentan en él, están organizadas en el
orden de valoración dado por los expertos y estructuradas en tres horizontes de
adopción:
Horizontes
de adopción
|
Tendencias
clave
|
Retos
críticos
|
1 año o
menos
|
2 - 3
años
|
3 – 5
años
|
1.
Libros electrónicos
|
3.
Realidad aumentada
|
5.
Interfaces gestuales
|
ü La
abundancia de recursos e interacciones a través del Internet está
incrementando el reto para repensar
sobre nuestro rol como educadores en cuanto a ‘producción de sentido’, ‘coaching’ y acreditación’.
ü Las personas esperan trabajar, aprender y estudiar en el tiempo y lugar que lo deseen.
ü El mundo del trabajo es incrementalmente
colaborativo,
acrecentando la reflexión sobre la forma en que los proyectos de los
estudiantes son estructurados.
ü Las tecnologías que usamos están
incrementalmente basándose en ‘la nube’ (cloud-based), y nuestras
nociones sobre el soporte en TI
tienden a la descentralización.
|
ü La alfabetización digital continua en
ascenso de importancia como competencia clave en todas las disciplinas y
profesiones.
ü Las
mediciones apropiadas para la evaluación están quedando rezagadas por la
emergencia de nuevas concepciones
sobre la escuela, formas de autoría, publicación e investigación.
ü Las
presiones económicas y los nuevos
modelos de educación están compitiendo fuertemente contra los modelos tradicionales de universidad.
ü Seguir el ritmo de la rápida proliferación
de la información, herramientas de software y recursos está desafiando igualmente a profesores y
alumnos.
|
2.
Tecnologías móviles (teléfonos, tabletas…)
|
4.
Aprendizaje basado en juegos
|
6.
Herramientas analíticas para el aprendizaje
|
De
lo anterior, queremos subrayar lo que aparece como tendencias clave y retos
críticos de nuestro futuro a corto y mediano plazo en la educación, y que se
refiere justamente al replanteamiento de la función y roles de los educadores en
la sociedad actual; se enfatiza también la reflexión sobre la necesidad de
alejarnos de las formas tradicionales en educación, no sólo con respecto a sus
agentes, sino en sus estructuras, procesos y grandes finalidades. Asimismo,
queremos resaltar la cuestión que sigue emergiendo en los primeros planos de
las reflexiones internacionales al respecto, y que refieren a la alfabetización
y competencia digital como competencias clave que han de desarrollar, hoy más
que nunca, tanto profesores, como alumnos.
Una
aportación adicional importante es la que hace Reig (2011), que asimismo formó
parte del comité de expertos del “Horizon Report 2011”, y que apunta la
necesidad de añadir a este listado otra serie de tecnologías emergentes que, de
acuerdo a su interpretación y experiencia profesional, son relevantes para su
consideración:
Horizontes
de adopción
|
Retos
críticos
|
1 año o
menos
|
2 - 3
años
|
3 – 5
años
|
7.
Entornos de colaboración – social media
|
8.
Movimientos de investigación activa: Open data
|
14.
Pantallas flexibles
|
ü Integración Formal – Informal: Aprendizaje
combinado, integración del aprendizaje formal y el informal.
ü Privacidad vs. Investigación e innovación.
|
|
9.
Visualización de datos
|
15.
Impresión de objetos, prototipos en 3D
|
10.
Crowdsourcing
|
|
11.
PLE’s
Entornos y redes
personales
de aprendizaje
|
12.
Aplicaciones de gama alta
(informática, AutoCAD, edición de video)
|
13.
Alfabetizaciones múltiples, Mashup’s, nuevos formatos
|
Una
pequeña retrospectiva para comparar con la actual, la podemos observar en el
reporte Horizon del 2010, que presenta igualmente las seis tecnologías
emergentes más destacadas del análisis de ese entonces y en las que podemos
identificar que las tecnologías móviles, efectivamente han incrementado su uso,
sin embargo, habría que valorar más adelante, los verdaderos aportes al
aprendizaje de los alumnos. Asimismo, vemos cómo los libros electrónicos que
tenían una perspectiva de 2 a 3 años de adopción en el mundo educativo en 2010,
ahora ya, tienen una mayor aceptación hacia esta tecnología. En España, por
ejemplo, el préstamo de libros electrónicos está llegando ya a algunas
bibliotecas públicas. En suma, vemos que las tecnologías prospectadas se están
abriendo camino en la educación aunque aún no podemos hablar de un hecho
generalizado.
Horizontes
de adopción
|
1 año o
menos
|
2 - 3
años
|
3 – 5
años
|
1.
Dispositivos móviles
|
3.
Libros electrónicos
|
5.
Gestualización
|
2.
Contenidos abiertos
|
4.
Realidad aumentada simple
|
6.
Visualización de datos
|
Por
su parte, en el más reciente reporte del Comité de la Unión de Sistemas de
Información sobre las prácticas emergentes en la era digital, se pronostican
asimismo seis tecnologías que ilustrarán las futuras prácticas innovadoras en
educación superior: Libros electrónicos,
Social Media, Realidad Aumentada,
Interfaces de nueva generación (control de voz, pantallas táctiles y 3D),
computación en la nube “cloud computing”
y el aprendizaje basado en juegos. Para complementar este breve panorama,
hemos de considerar paralelamente las nuevas formas de acceso a recursos
digitales para la educación (Open courses, OER, MOOC, OCW; la
integración de diferentes contextos educativos (formal, no formal, informal) y escenarios de aprendizaje a través
de internet (redes sociales, CoPs, CVA);
los nuevos tipos y formas de aprendizaje (individual,
grupal, colaborativo, conocimiento e inteligencia colectiva, aprendizaje 2.0 y
3.0, aprendizaje móvil y aprendizaje invisible); y, finalmente, mencionar las teorías y
concepciones sobre el aprendizaje de estos tiempos (constructivismo, conectivismo).
A
la luz este marco, consideramos necesario resaltar tres aspectos vinculados con
la emergencia que implican todas estas tecnologías, y que son las nuevas
concepciones de espacio, tiempo y velocidad. Tales concepciones e impactos han
hecho, por ejemplo, que las barreras físicas de las instituciones
universitarias, trasciendan hacia nuevos escenarios virtuales y móviles, dando
la posibilidad a los alumnos y a las personas, de vincularse a nuevas
propuestas curriculares-pedagógicas a través de las tecnologías e Internet.
Esta ‘no-presencia’ o virtualidad en sí misma,representa una variable
significativa e importante, incluso para comunicarnos; o como explica, quien
afirma que más bien, vivimos una ‘virtualidad real’ - y no en una ‘realidad
virtual’ -, ya que la virtualidad real es la clave de todo lo que hacemos hoy
en la red Internet: todo lo que percibimos y todo con el que interactuamos,
está justamente ‘en’ este hipertexto electrónico, el cual es virtual; por ello,
esta virtualidad es nuestra realidad e Internet es quien la procesa.
En
cuanto a la velocidad, podemos decir que representa la rapidez con la cual la
información y el conocimiento se van generando a través de las tecnologías, así
como generando nuevos y más avanzados sistemas tecnológicos; esta velocidad es
la que hace que sea cada vez más trascendente, insistimos, que el profesorado
universitario desarrolle competencias para aprender a aprender de manera
crítica y reflexiva, y que será lo que le permitirá adaptarse a la velocidad de
los cambios de la realidad y le prepare para aportar soluciones efectivas a
problemas sociales relevantes, en el momento y contexto adecuados.
Aún
cuando el profesorado universitario incremente el uso de todas estas
tecnologías emergentes y le ayude en el proceso de construcción de puentes
importantes entre el rol tradicional de la educación y el no tan claro futuro
educativo , nos preguntamos ¿qué implicaciones tienen entonces todas estas
tecnologías emergentes en su perfil competencial? entre ¿dónde está el ancla?
Consideramos en esta reflexión, que necesitamos modelos y referentes claros,
flexibles y útiles, que sirvan como herramientas de formación y desarrollo
profesional al profesorado en estos tiempos de incertidumbre, cambio constante,
tecnologías y escenarios emergentes; un perfil del profesorado universitario
más acorde con estos tiempos líquidos, en el que se integren de manera crítica
y reflexiva las tecnologías pero con una orientación socialmente relevante más
que meramente tecnológica, de tal forma que el profesorado esté preparado para
afrontar los retos emergentes del futuro con mayor pertinencia, pero más que
reactivo, lo que se intenta plantear es que necesitamos un profesorado
proactivo, que desarrolle una visión más a futuro e ir más allá, incluso para
anticiparse a los problemas y a las necesidades de la sociedad y no
exclusivamente al mercado laboral; recuperar su rol reflexivo y crítico y
abrirse a nuevos planteamientos de la sociedad para generar, difundir y compartir
el conocimiento para el bien social, con mayor impacto y rapidez.
COMPETENCIAS DIGITALES
RELEVANTES
Las
enormes transformaciones que se han suscitado en el mundo, especialmente en
este nuevo siglo, no hacen sino resaltar cada vez más, la necesidad de
transformar la Universidad y su misión, pensando sobre todo que ésta, es una
institución con una eminente función social. Por tanto, es casi urgente que su
misión, sus objetivos y sus acciones, se redirijan hacia la formación, no sólo
de profesionales, sino de ciudadanos,
que se insertarán en sociedades mucho más diferentes que en las que se están
formando hoy. Consideramos entonces, que el replanteamiento de la misión y las
finalidades de la Universidad en este nuevo siglo, debieran ser construidos y
reflexionados en, y con, los miembros de la sociedad.
En
esta línea, y coincidiendo nuevamente consideramos que la propia universidad se
va transformando en función del momento histórico que atraviesa, es por ello
que en la Sociedad del Conocimiento, se observa además, la necesidad que la
universidad reflexione acerca del papel del conocimiento que desea promover,
generar y difundir. “…para imaginar un mundo diferente, debemos plantearnos qué
conocimiento es necesario para construir qué tipo de sociedad” y es aquí donde encontramos la base de lo
relevante al momento de considerar la integración de las tecnologías en el
desarrollo profesional docente universitario. Habría que plantearse además, qué
es lo que entiende por educación, de tal forma que se puedan articular
soluciones pertinentes sobre cómo preparar a las personas, y en especial al
profesorado universitario, para vivir y trabajar en sociedad, con qué valores y
qué tipo de conocimiento seleccionar como el más relevante para la sociedad y
con qué propósitos . Una educación que nos posibilite conocer, hacer, vivir
juntos y ser, y en la que podamos alcanzar todo nuestro potencial como seres
humanos.
Bajo estas premisas, insistimos que la integración de las
TIC debe ir más allá de una cuestión meramente tecnológica, instrumental o
emergente, en la que se tengan en cuenta aspectos más relevantes para el
desarrollo de la sociedad que den verdadero valor y sentido a éstas y su
contribución real a la educación y en consecuencia, al aprendizaje de los alumnos.
Cuando se habla sobre las nuevas tendencias de la formación del profesorado: “…es necesario analizar profundamente el
contexto social, político y económico actual, y reflexionar para cuál contexto
queremos formar a nuestros profesores”, pero sobre todo, enfatiza la
urgencia de reflexionar y definir para qué formarlos; es decir, cuál es la
función que deben cumplir en la sociedad, dado que él considera que la
situación cultural actual sufre de un gran ‘déficit de sentido’ en el que el
profesorado se siente desarmado. Por ello apunta a que necesitamos adoptar el
concepto de “sociedades más justas” que contemplen la inclusión social, la
participación activa, la incorporación al mercado de trabajo, pero sobre todo,
resalta que se contemplen los tres grandes tipos de alfabetizaciones:
lecto-escritora, digital y científica. Con ello también señala que una de las
áreas de la profesionalización docente que debe reforzarse es el uso e
integración de las TIC en su formación.
Coincidimos entonces, que una de las variables críticas
de todo este entramando es justamente la formación del profesorado para
desenvolverse adecuadamente en la Sociedad del Conocimiento. Las Universidades
deberían fortalecer y atender, entre muchos otros aspectos, a las necesidades
de formación del profesorado para integrar las TIC y saber resolver problemas
con éstas, no sólo los relacionados con su rol tradicional de docencia, sino
con todos los nuevos roles que enfrenta el profesorado en la actualidad, en los
ámbitos de la investigación, la gestión, la innovación, la formación y
evaluación, la responsabilidad ética y social, la construcción y difusión del
conocimiento, así como la atención a los aspectos éticos, legales y
medioambientales que se deriven del uso de las TIC en la educación.
Una
diversidad de autores coinciden en la transformación del papel del profesorado
ante las TIC, sin embargo, una perspectiva, que a nuestro juicio, denota un
análisis más crítico y agudo sobre lo que representa en realidad la Sociedad
del Conocimiento para la Educación y el profesorado, es la que realiza, quien
describe ampliamente las dos caras de la moneda, es decir, tanto de los
beneficios como de los enormes riesgos que plantea la sociedad actual. Hace
referencia a que el profesorado debe reconducir su profesión no sólo para la
economía del conocimiento, sino más bien para la Sociedad del Conocimiento y
más allá de ella, de tal manera que ésta se posicione más allá de los
beneficios económicos y responda a necesidades sociales mucho más relevantes y
profundas, beneficiando así, a todos los miembros de la sociedad, y en
particular, a los menos desarrollados o a los que hasta ahora se han visto
marginados por las consecuencias negativas de la Sociedad del Conocimiento en
las denominadas brechas digitales, incluyendo por supuesto al mismo
profesorado, como uno de los principales agentes educativos afectados y
desvalorados por la economía actual. En este sentido, enseñar más allá de la
Sociedad del Conocimiento, implica que el profesorado, “…aborde otros valores humanos y
objetivos educativos humanos y convincentes además de los que consiguen
beneficios: objetivos relacionados con el carácter, la comunidad, la democracia
y la identidad cosmopolita.” En consecuencia, la propuesta de
Hargreaves señala un perfil del profesorado que enseñe en, para y más allá de
la Sociedad del Conocimiento con las siguientes cualidades o conjunto de
virtudes profesionales indiscutibles:
Enseñar EN y PARA la
Sociedad del Conocimiento
|
Enseñar MÁS ALLÁ de la
Sociedad del Conocimiento
|
Desarrollar un aprendizaje cognitivo sofisticado, un repertorio
cambiante y en expansión de prácticas de enseñanza basadas en la
investigación, formación y autoevaluación profesional continua, asociaciones
de aprendizaje, el desarrollo y uso de la inteligencia colectiva y el cultivo
de una profesión que valora la resolución de problemas, la asunción de
riesgos, la confianza profesional, el enfrentarse al cambio y el compromiso
con la mejora continua.
|
Servir como contrapunto para promover los valores de comunidad,
democracia, humanitarismo e identidad cosmopolita. Dedicación para la
construcción del carácter de los alumnos con estos atributos; ayudarles a
pensar y actuar por encima y más allá de las seducciones y exigencias de la
economía del conocimiento. También exige que los docentes trabajen juntos en
grupos de colaboración a largo plazo, que se comprometan y se desafíen entre
sí, como una comunidad profesional preocupada y comprometida, que construyan
una profesión en la que los docentes puedan experimentar y llegar a ser
efectivos trabajando con sus colegas.
|
Requiere de niveles de capacidad y criterio; cualidades de madurez
personal e intelectual que cuesta años desarrollar. Enseñar en la Sociedad
del Conocimiento, más bien debería ser una carrera de primera opción, un
trabajo para intelectuales adultos, un compromiso a largo plazo, una misión
social, un trabajo de por vida.
|
·
Creatividad.
·
Flexibilidad.
·
Resolución de problemas.
·
Resolución de problemas.
·
Inventiva.
·
Inteligencia colectiva.
·
Confianza profesional.
·
Asunción de riesgos.
·
Mejora continua.
|
·
Promover el aprendizaje
social y emocional, el compromiso y el carácter.
·
Aprender a relacionarse con
los demás de una manera diferente; reemplazar las cadenas de interacciones
con lazos y relaciones duraderos.
·
Desarrollar una identidad
cosmopolita.
·
Comprometerse con un
desarrollo profesional y personal continuo.
·
Trabajar y aprender en grupos
de colaboración.
·
Forjar relaciones con
familias y comunidades.
·
Construir la comprensión
emocional.
·
Preservar la continuidad y la
seguridad.
·
Establecer la confianza
básica en las personas.
|
Recientemente
en una conferencia sobre el futuro del profesorado y de su desarrollo
profesional, señala que necesitamos seriamente invertir en el desarrollo
profesional de los docentes; que debemos repensar la educación; y sobre todo,
que debemos invertir en profesorado altamente cualificado que desarrolle
competencias de alto nivel y con un alto nivel de compromiso.
Analizando
y tomando en cuenta las reflexiones previas, así como otras muchas derivadas de
un análisis profundo llevado a cabo en una investigación realizada en “La Competencia Digital del Profesorado
Universitario para la Sociedad del Conocimiento”,se han identificado y validado una serie de Unidades de Competencia
Digital para dicho perfil, que consideramos debe asumir el profesorado en la
Sociedad del Conocimiento, haciendo énfasis en que tal competencia ha de estar
integrada en el tejido mismo de cada uno de esos roles, dado su carácter
transversal e impacto, en mayor o menor grado, en cada uno de los roles y
actividades del docente. Ello permite dejar a un lado el enfoque meramente
instrumental de las tecnologías — que consideramos que es sólo una parte del
enfoque de competencias y que se considera igualmente junto con aquellas
competencias metodológicas, personales y participativas que conforman todos los
tipos de saber de una competencia y abre
paso a la prioridad de la persona, del profesional, para que sea él quien a
partir de la reflexión crítica, utilice e integre adecuadamente las tecnologías
de información y comunicación no sólo en el aula, que correspondería sólo al
rol de docencia, sino que las integre en cada uno de sus roles profesionales y
sus contextos correspondientes, de acuerdo a su criterio y experiencia
profesional. Así, el enfoque no estará en la tecnología, sino en el poder de
reflexión y decisión del profesorado para utilizar estratégicamente dicha
tecnología.
La
complejidad de la identificación, selección y organización de las competencias
de un profesional es una tarea ardua, colectiva, consensuada y adaptada a los
contextos de actuación que configuren su acción personal, social y profesional.
No es menos fácil el proceso de identificar tales competencias cuando se trata
de un profesional como el profesor, y menos aún, cuando se trata de integrar un
elemento que, como ya apuntamos, consideramos transversal a prácticamente a
todas las actividades y roles que desempeña el profesor en la Sociedad del
Conocimiento que son las tecnologías de información y comunicación. El punto de
partida para la identificación de dichas competencias digitales se configuró a
partir del análisis, comprensión e identificación de los principales problemas
sociales a los que se enfrenta el profesor de educación superior ante los
cambios actuales, brevemente esbozados aquí, y a partir de la identificación de
estas problemáticas (prácticas socio-culturales relevantes en la Sociedad del
Conocimiento), se integró la variable de las tecnologías de información y
comunicación, tratando de averiguar en qué aspectos o roles, de qué forma y en
qué medida, las TIC han impactado en el perfil del profesorado universitario,
sus funciones y contextos de actuación. Así, fundamentados en las problemáticas
esenciales de la educación superior en el mundo y del acuerdo global de que las
TIC son un elemento esencial para la vida, el ocio y el trabajo de las personas
, hemos identificado que el Profesor Universitario ha de desarrollar los
siguientes grandes ámbitos competenciales que llamaremos Unidades de
Competencia Digital para la Sociedad del Conocimiento.
EMERGENCIA VS. RELEVANCIA:
Dada la emergencia y relevancia que tiene el formar y
empoderar al profesorado universitario en la Competencia Digital necesaria para
su desarrollo profesional docente en la Sociedad del Conocimiento, hemos
tratado de hacer converger nuestra reflexión teórico-conceptual desarrollada
hasta el momento, junto con los marcos analizados sobre los avances
científico-tecnológicos de la sociedad actual desarrollados en la investigación
mencionada para aproximarnos a la construcción de una propuesta
teórico-práctica para el profesorado universitario que consiste en un modelo
que integra tanto sus unidades de competencia digital desprendidas del perfil
del profesor universitario necesario para la Sociedad del Conocimiento, como
las fases de desarrollo e integración de esta competencia a través del tiempo
en su actividad y desarrollo profesional. Asimismo, integra los distintos
niveles de dominio de cada competencia, de tal forma que, de manera integrada
en el propio desarrollo y funciones docentes, las TIC representen tanto un
sistema tecnológico-simbólico de reflexión para la práctica docente, como una
herramienta de autoevaluación diagnóstica que sea de utilidad práctica para
identificar sus necesidades formativas con respecto a la competencia digital,
tomando así, las decisiones formativas que más le convengan de acuerdo a dichas
necesidades y contexto. Con ello, a partir del modelo se construyó y validó un
instrumento de autoevaluación (a través de jueces expertos y de una prueba
piloto en contexto real), que permite al profesorado universitario,
diagnosticar sus necesidades de formación continua con respecto a su
competencia digital para orientar sus planes de formación continua hacia el
crecimiento y desarrollo profesional.
Las
dimensiones básicas a través de las cuales se vertebra y constituye el modelo
son:
1.
Las
Unidades de Competencia Digital, ya mencionadas
anteriormente, como punto de partida y fundamento que da sentido al modelo (la
profesionalidad del docente universitario en lo personal y lo profesional; el
compromiso profesional, el impacto personal y social).
2.
Las
Fases de Integración de la Competencia Digital que
dan el carácter de desarrollo y continuidad en el tiempo (sentido formativo).
La competencia digital entraña un proceso de aprendizaje complejo, gradual y
recurrente, es decir, es más bien un proceso de desarrollo que ha de llevarse a
cabo a través del tiempo para poder integrarse adecuadamente en el repertorio
de actuaciones del profesorado; un proceso que va desde el establecimiento e
identificación del problema educativo a resolver con el apoyo de TIC en su más
amplio sentido, y que pasa por otros procesos cognitivos complejos en los que
se identifican, se analizan, se organizan, se evalúan y se seleccionan
críticamente, entre otros procesos, los sistemas tecnológicos más pertinentes
para resolver el problema educativo o situación pedagógica en un contexto y
momento determinado.
3.
El
Nivel de Dominio y Grado de Complejidad de la Competencia Digital,
que da cuenta del carácter evolutivo y de profundidad por niveles de
desarrollo. Concebir la integración de la competencia digital en el desarrollo
profesional docente como proceso continuo, recurrente y gradual (aprendizaje
permanente), consideramos que implica además, definir el grado o medida en que
cada una de las competencias puede irse desarrollando y profundizando, tanto en
su comprensión como en su utilización e integración significativa, es decir, el
grado de dominio o maestría de la competencia digital. Así, hemos definido
cinco niveles que inician desde la consideración que una competencia no ha sido
desarrollada hasta el momento, pero que sin embargo está latente por aprender y
desarrollar, hasta llegar a un ideal o máximo nivel de desarrollo de la
competencia, como experto.
Finalmente
apuntamos sintéticamente los ejes vertebradores del modelo, para tener una idea
general sobre sus concepciones y fundamentos generales:
ü La
reflexión crítica y la mejora continua en y sobre la práctica. Lo cual nos da
cuenta de un modelo abierto, flexible sometido a evaluación continua; así, se
abre la posibilidad de conformar nuevos roles que atiendan a las necesidades de
la sociedad. Como apuntamos antes, un enfoque humano y crítico sobre la
formación claramente contextualizada.
ü Integración
coherente y gradual orientada a la innovación y a la generación y aplicación
del conocimiento como compromiso individual y social.
ü
Metas claras y alcanzables
de desarrollo profesional como fuerza resultante, orientadas al crecimiento y
desarrollo profesional; orientan y posibilitan las acciones de formación
permanente.
3.2 COMPONENTES DE LA ESTRUCTURA: HARDWARE Y SOFTWARE
1. sistema informático: hardware y
software
1.1 sistema informático
Informática: El término “informática” proviene de la fusión de los
términos “INFORmación” y “autoMATICA” . La informática es una ciencia que
estudia el tratamiento automático de la información . Como definición formal ,
se puede usar la siguiente :
“Ciencia que estudia el tratamiento automático y rarcional de la
información como soporte de los conocimientos y comunicaciones humanas ,
llevado a cabo mediante elementos automáticos , así como el conjunto de técnicas
, métodos y máquinas aplicadas a dicho tratamiento“ .
La Real Academia Española de la Lengua nos da la siguiente definicion :
“Conjunto de conocimientos científicos y técnicas que hacen posible el
tratamiento automático de la información por medio de computadoras
electronicas” .
De esta última definición podemos deducir que hay tanto una ciencia
informatica como unas técnicas informáticas.
Sistema informático: Sistema de procesamiento de la información vasado
en ordenadores.
Ordenador: Máquina capaz de aceptar datos a traves de un medio de
entrada, procesarlos automáticamente bajo el control de un programa previamente
almacenado, y proporcionar la información resultante a través de un medio de
salida.
Esta información que se procesa puede ser superflúa o incompleta, o poco
clara, o demasiado voluminosa, o llegar demasiado tarde para ser aprobechada
(es decir, puede no ser del todo útil). Una “buena” información tendría las
siguientes cualidades:
·
Precisión: La información ha de ser precisa.
La precisión a exigir dependerá de la aplicación concreta que tenga la
información. Hay que evitar tanto defectos de precisión (“en la sala hay varios
ordenadores” en lugar de “en la sala hay 15 ordenadores”) como excesos de
precisión (“la mesa que queremos es de 75'45648 cms.”).
·
Exactitud: La información ha de ser exácta.
La exactitud se mide en términos de porcentaje de error. Es una medida del
alejamiento de la realidad. Tambien aquí la aplicación concreta marcará en cada
caso la exactitud que ha de exigirse. No podrá obtenerse la exactitud
suficiente si los datos de partida son incorrectos o erróneos
·
Oportunidad: La información ha de ser oportuna,
es decir, debe llegar al usuario con en tiempo necesario para que éste pueda
actuar (en función de dicha información) antes de que esa acción sea inútil. El
tiempo disponible para que la información llegue oportunamente variará mucho en
función de la aplicación y puede ser desde unos pocos microsegundos (en algunos
controles de proceso) a varios meses (en macroeconomía y sociología). También
puede ser inoportuno a veces llegar antes de tiempo. En algunas aplicaciones
interactivas se introducen retrasos programados en las respuestas del ordenador
para evitar que el exceso de velocidad de la máquina incomode al hombre.
·
Integridad: La información debe ser completa.
En la mayoría de los casos es inalcanzable una integridad del 100%; en todos
los casos conviene que sea lo más completa posible. La integridad no debe
provocar que la información contenga cosas superfluas o redundantes (no caer en
el exceso de información).
·
Significatividad: La información
debe ser clara y relevante, de tal modo que su recepción sea fácil y rápida.
Para ello, se puede acompañar dicha información con ayudas gráficas, visuales,
auditivas o de otro tipo.
La Informática se ocupa de la información como materia esencial de estudio;
con esta información es preciso:
·
representarla en forma eficiente y automatizable
·
retransmitirla sin errores ni pérdidas
·
almacenarla para poderla acceder y recuperar
tantas veces como sea preciso
·
procesarla para obtener nuevas informaciones
más elaboradas y más útiles a nuestros propósitos
Un sistema informático está compuesto a su vez por dos subsistemas: el
Hardware y el Software.
·
Hardware: El equipo físico que compone el
sistema se conoce con la palabra inglesa “hardware”, que en castellano se puede
traducir como “soporte físico”. Es el conjunto de dispositivos electrónicos y
electromecánicos, cirrcuitos, cables... que componen el ordenador. Son entes
palpables, que podemos tocar.
·
Software: Para que el sistema trabaje,
necesita que le suministren una serie de ordenes que indiquen qué es lo que
queremos que haga. Estas órdenes se le suministran por medio de programas. El
software o “soporte lógico” está compuesto por todos aquellos programas
necesarios para que el ordenador trabaje. El software dirige de forma adecuada
a los elementos físicos o hardware.
Comenzaremos estudiando la parte fisica del ordenador, es decir, su
hardware
2. componentes físicos: HARDWARE
El ordenador no está formado por un solo bloque, sino que lo forman
diferrentes partes encargadas cada una de ellas de una labor muy específica
dentro de todo el conjunto.
Hay una parte del ordenador que le sirbe para comunicarse con el exterior,
es decir, para recibir y emitir información. Son las unidades de entrada
salida, unidades perifecicas o simplemente periféricos.
Otra parte fundamental es la memoria, que se encarga de memorizar
las instrucciones, datos y resultados.
La tercera parte fundamental es la unidad central de proceso (U.C.P.
o C.P.U.), que se divide en dos partes: una parte que controla todo el
proceso (unidad de control, U.C.) y otra parte en la que se
realizan las operaciones aritméticas y lógicas que ordene la U.C. (es la unidad
aritmético lógica, U.A.L. o A.L.U. ).
memoria
La Memoria Principal o Memoria Central es el dispositivo que sirve para
almacenar los programas (instrucciones) que se quieran ejecutar (cuando haya
que cargar el programa) y para almacenar los datos, los cálculos intermedios y
los resultados (cuando el programa ya se esté ejecutando).Es decir, almacena
todo aquello que ha de ser procesado por la CPU. La CPU puede traér y llevar
datos directamente desde y hacia la memoria.
La posibilidad de que en dos momentos diferentes esten dos programas
diferentes en la memoria es lo que permite que un misma máquina pueda servir
para trabajos distintos (ordenadores de propósito general).
Sólo los datos almacenados en la memoria son procesables por la CPU. Los
datos que estén contenidos en algún dispositivo de almacenamiento externo deben
ser previamente introducidos a la memoria, por medio de una unidad periférica.
La cantidad de memoria usada para almacenar el programa dsependerá de la
complejidad del mismo (número de instrucciones que lo formen) y del tamaño de
los datos que se quieren procesar en el programa.
direccionabilidad de la memoria
La memoria se puede comparar con los buzones que hay en los portales de los
edificios. Están dispuestos en forma matricial, o sea en filas y columnas; cada
uno de los buzones es una unidad de almacenamiento y está identificada por un
código de piso y puerta al que corresponde.
En la memoria cada uno de estos buzones se corresponde con una celda de
memoria o posición de memoria. Estas celdas tienen un tamaño (número
de bits que pueden almacenar) siempre igual para cada sistema. A cada celda de
memoria se le asigna un indicativo, que llamaremos dirección de la celda
(un número) que la identifica y permite referenciarla por su posición dentro
del conjunto total de celdillas que componen el total de la memoria. Para leer
o escribir información en una determinada celda sera preciso identificarla
mediante su dirección de celda. Como suele ser el propio ordenador quien maneja
continuamente los números que representan las direcciones, estas direcciones se
expresan en binario (que es el sistema con el que trabaja el ordenador). Para
mayor comodidad humana, se pueden representar en hexadecimal.
El número de bits (unidad binaria básica de información) que componen una
celdilla elemental de memoria, la unidad mínima direccionable, lo que llamamos posición
de memoria, depende de la construcción electrónica del diseño de cada
ordenador. Hoy dia predomina el empleo de la longitud de 8 bits (1 byte) para
posición elemental de memoria.
Otra cosa distinta, que no hay que confundir, es la longitud de bits que
son abarcados como operando de una instrucción. Es un dato muy importante
porque limita el valor máximo que puede llegar a tener un operando dentro del
ordenador. Al conjunto de btits que forman un campo de memoria que contiene un
operando de una instrucción de la máquina se le llama palabra.
espacio direccionable
En cualquier ordenador existirá un espacio direccionable. Es el intervalo
de direcciones que pueden ser utilizadas por el microprocesador. El espacio
direccionable está limitado por el tamaño del bus de direcciones y éste a su
vez depende del diseño del microprocesador.
De forma general, la cantidad de memoria maxima que puede direccionar el
microprocesador será de 2n bytes, siendo n el número de líneas del bus de
direcciones; para un bus de direcciones de 20 líneas, tendríamos 220 bytes =
1.048.576 bytes = 1.024 Kb = 1 Mb.
características de la memoria
Algunas de las características fundamentales de las memorias (de cualquier tipo)
son las siguientes:
Volatilidad.
Se dice que la información almacenada en una memoria es volátil siempre y
cuando corra el riesgo de verse alterada en el caso que se produzca algún fallo
de suministro de energía eléctrica (memorias de biestables). No son volatiles
aqueyas en las que la información, independientemente o no que exista algún
fallo en el fluido eléctrico, permanece inalterada.
Tiempo de acceso.
Es el tiempo que transcurre desde el instante en que se lanxza la operacion
de lectura en la memoria y el instante en que se dispone de la primera
información buscada.
En la memoria principal este tiempo es, en principio, independiente de la
dirección en la que se encuentre la información a la que queremos acceder.
Capacidad.
Número de posiciones de memoria de un sistema (número de informaciones que
puede contener una memoria).
La capacidad total de memoria será un dato esencial para calibrar la
potencia de un ordenador. La capacidad de la memoria la medirremos en múltiplos
de byte (8 bits): Kilobytes (1024 bytes) y Megabytes (1024 Kilobytes).
Caudal.
Número máximo de informaciones leídas o escritas por unidad de tiempo.
tipos de memoria
Dentro de la memoria principal, existen dos dibisiones, en función de las
posibilidades de lectura/escritura o solamente lectura: RAM y ROM.
·
Memorias RAM (Random Access Memory), memoria de
acceso aleatorio o directo; esto quiere decir que el tiempo de acceso a una
celda de la mepmoria no depende de la ubicación física de la misma (se tarda el
mismo tiempo en acceder a cualquier celda dentro de la memoria). Son llamadas
también memorias temporales o memorias de lectura y escritura. En este tipo de
memorias leemos y escribimos a voluntad. Para escribir no hace falta el borado
previo de las posiciones a grabar. Es la memoria destinada a contener los
programas cambiantes del usuario y los datos que se vayan necesitando durante
la ejecución de dichos programas. Es la memoria perfectamente flexible y
reutilizable. Su inconveniente radica en la volatilidad al cortarse el
suministro de corriente: si se pierde la alimentacion eléctrica, la información
presente en la memoria se pierde. Por este motivo los datos y programas que el
sistema debe mantener permanentemente para su funcionamiento no se almacenann
en memoria de tipo RAM.
La memoria RAM se llama también memoria de usuario, por ser la memoria con
la que trabaja el sistema para ejecutar los progamas encargados.
Cuando se hace referencia a la capacidad de memoria de un ordenador se está
hablando de la memoria RAM del sistema.
·
Memorias ROM (Read Only Memory), memoria de solo
lectura, llamadas también memorias residentes o permanentes. Son memorias que
sólo permiten la lectura y no pueden ser reescritas. Su contenido viene grabado
en orígen por el fabricante de la coputadora y no puede ser cambiado nunca. No
es volátil, los datos almacenados permanecen aunque desaparezca el fluido
eléctrico. Por lo demás funciona exactamente igual que la memoria RAM, pudiendo
contener datos y código de programas. Debido a estas características, se usa
para almacenar información vital para el funcionamiento del sistema. La gestión
del proceso de arranque, el chequeo inicial del sistema, carga del sistema
operativo y diversas rutinas de control de dispositivos de entrada/salida
suelen ser las tareas encargadas a los programas grabados en ROM. Estos
programas forman la llamada BIOS (o ROM-BIOS) (Basic Input Output System).
Junto a la BIOS se encuentra el chip de CMOS donde se almacenan los valores que
determinan la configuración hardware del sistema, como tipos de unidades,
parámetros de los discos duros, fecha y hora del sistema... esta información no
se pierde al apagar el ordenador. Estos valores se pueden modificar por medio
del SETUP.
La memoria ROM constituye lo que se ha venido llamando Firmware, es
decir, el software metido físicamente en hardware. De cara a los fines del
usuario es una memoria que no sirve para la operación de su programa, sólo le
aporta mayores funcionalidades (mayor “sabiduria”) del equipo.
Existen tipos especiales de memorias ROM en las cuales la información no ha
sido grabada durante el proceso de fabricación:
·
Memorias PROM (Programmable ROM), llamadas ROM's
programables, son memorias de tipo ROM pero suministradas virgenes para que el
usuario programe su contenido en función del trabajo que le interese
desarrollar en su equipo y una vez grabadas se convierten en ROM a todos los
efectos. Se usan mucho para grabar constantes que dependen de cada usuario
particular pero que son totalmente permanentes una vez definidos sus valores;
por ejemplo un conjunto particular de símbolos convencionales o un allfabeto
específico no estándar.
·
Memorias EPROM (Erasable PROM), llamadas PROM´s
reprogramables, son del mismo tipo y finalidad que las PROM pero con la
posibilidad de borrar su contenido en un momento determinado y reutilizarlas
para contener otro programa distinto. Para ello la memoria dispone de una
“ventana” de cuarzo a través de la cual mediante un fuerte rayo ultravioleta se
puede borrar el contenido y protceder como si se tratara de una PROM virgen
pendiente de grabar por primera vez.
dispositivos adicionales
Dentro del subsistema de memoria además de la memoria propiamente dicha,
existen una serie de dispositivos adicionales como:
·
el registro de contenido de memoria (RCM): contendrá el
valor que será escrito en una operación de escritura o el dato leído después de
una operación de lectura.
·
el registro de direccion de memoria (RDM): contendrá la
dirección de la celda que será accedida, tanto para escritura como para
lectura.
·
la unidad de conntrol de memoria (UCM): se encarga de
controlar las operaciones que deben realizarse en el subsistema de memria a
instancias de las señales de control enviadas por la UC de la CPU.
memoria caché
Un tipo importante de memoria es la memoria caché. Funcionalmente, la
memoria caché es igual a la memoria principal. Sin embargo, físicamente en el
ordenador es un componente distinto (no es imprescindible que esté en los
ordenadores). Se puede definir como una memoria rapida y pequeña, situada entre
la memoria principal y el procesador, especialmente diseñada para contener
información que se utiliza con frecuencia en un proceso con el fin de evitar
accesos a otras memorias (principal), reduciendo considerablemente el tiempo de
acceso al ser más rápida que el resto de la memoria principal.
Cuando el procesador lee datos o los almacena en la memoria principal, los
datos también se almacenan en la memoria caché. Si el microprocesador los
necesita de nuevo, los lee de la caché y no de la principal. Al ser ésta muy
rápida la velocidad se incrementa dramáticamente.
La cantidad de memoria caché en un ordenador que disponga de esta memoria
es bastante menor que la cantidad de memoria principal (no caché), y además la
caché es bastante más cara.
unidad central de proceso. EL microprocesador.
La unidad central de proceso o CPU es el verdadero motor de un ordenador.
Se encarga de realizar las tareas fundamentales:
·
Operaciones aritméticas
·
Direccionamiento de Memoria
·
Gestión de instrucciones
·
Control del transporte de los datos a través de los
buses.
La CPU es el elemento principal de un sistema computerizado. Si hacemos un
símil entre un ordenador y el cuerpo humano, la CPU hará el papel del cerebro:
atender las solicitudes, mandar y hacer controlar la ejecución.
Un microprocesador es un circuito integrado o chip que contiene a la
CPU y un conjunto de patillas. Su tamaño es algo menor que el de una caja de
cerrillas. Los ordenadores equipados con microprocesadores se suelen conocer
con el nombre de microordenadores, que son los ordenadores de pequeño
tamaño y elevada capacidad que estamos acostumbrados a ver. Generalmente los
términos CPU y microprocesador se usan indistintamente.
La CPU está compuesta por varios subsistemas. Principalmente son dos: la
unidad aritmético lógica (ALU) y la unidad de control (UC). Otro componente muy
importante son los registros. Comenzaremos viendo estos últimos:
registros
Los procesadores no suelen operar casi nunca directamente sobre la memoria
principal. Coger los datos a operar directamente de la memoria principal sería
lo ideal pero técnicamente sería muy caro de construir y seguramente muy lento.
Resulta mucho más conveniente que los operandos sobre los cuales va a actuar el
procesador sean traspasados previamente a unas pequeñas memorias auxiliares
fijas y ultra rápidas. Estas memorias de altísima velocidad destinadas a
memorizar los datos esenciales de cada instante del proceso se llaman
registros, y están situados dentro del propio procesador. El tamaño de los
registros suele ser el mismo que el bus de datos.
En cada procesador concreto habrá un número determinado de ellos, según los
usos específicos que se tengan previstos. Estos usos pueden ser, por ejemplo,
los siguientes:
·
instrucción que se esté ejecutando
·
primer operando de la instrucción que se esté ejecutando
·
segundo operando de la instrucción que se esté ejecutando
·
resultado de la operación
·
Información que será utilizada para calcular la dirección
de memoria a la que se quiere acceder.
·
Información sobre la situación en la que ha quedado la
CPU después de la ejecución de una instrucción (por ejemplo: resultado de la
última comparación efectuada)
·
información que permita controlar el funcionamiento de la
CPU.
·
dirección de la siguiente instrucción a ejecutar (es una
dirección de memoria)
Los registros constituyen el nexo entre la CPU y la memoria. Los operandos
sobre los cuales se aplica una instrucción deberán ser transportados
previamente a los correspondientes registros desde la memoria principal y el
resultado obtenido en el registro de resultado deberá transportarse a la ubicación
deseada de la memoria principal.
unidad de control
La unidad de control dirige todas las actividades del ordenador.
Actúa como el corazón del sistema, enviando impulsos eléctricos (señales de
control) para secuenciar (poner en orden) y sincronizar (marcar
el tiempo) el funcionamiento de los restantes componentes.
Para alcanzar la sincronización de todo el sistema, la UC tiene un
componente denominado reloj, que se describe a continuación:
reloj
El microprocesador está conectado a una oscilador que genera impulsos
(señales eléctricas) igualmente espaciados en el tiempo (a intervalos
constantes de tiempo), y que se suele conocer como reloj. Estos impulsos forman
una señal, que permite regular los instantes exactos en los que debe comenzar y
finalizar el trabajo de un componente.. Esta será emitida por el reloj a una
determinada frecuencia base. La frecuencia se mide en megahercios (MHz o
millones de ciclos por segundo). El microprocesador recibe diccha señal y la
divide para obtener otra señal con la frecuencia a la que el microprocesador es
capaz de trabajar. Esta nuevas señal marca el ritmo con el cual se ejecutan
todas las tareas.
Por ejemplo, el 8088 funciona a 4,77 Mhz, que es un tercio de la frecuencia
base del reloj que usa, que es de 14,31818 Mhz.
Los más modernos microprocesadores alcanzan velocidades de cientos de MHz
(300 Mhz alcanza el Pentium II, es decir, 300x106 Hz, lo que significa que el
reloj genera 300 millon de pulsos por segundo, lo que suponiendo que cada
instrucción a realizar por el microprocesador necesitara un ciclo de reloj, se
podrían realizar 300 millones de instrucciones por segundo).
decodificador
Otro componente de la UC es el decodificador. El decodificador tiene como
misión recibir el código de la operación a realizar y traducirla
(decodificarla) en el conjunto de señales de control necesarias para llevarla a
cabo. El funcionamiento del decodificador se basa, en los modernos
microprocesadores, en la llamada lógica microprogramada. La interpretación de
un código de instrucción se traduce en la ejecución de un microprograma que
define los pasos elementales a realizar para ejecutar la instruccion deseada.
El microprograma está almacenado en una zona de memoria denominada memoria de
control.
registros de la UC
Hay que señalar la presencia dentro de la UC de varios registros. Aunque su
número y su misión pueden variar en gran medida entre diferentes
microprocesadores, de alguna manera siempre deben existir por lo menos dos:
·
el registro Contador de Programa
·
el registro de instrucciones
El primero de ellos, también conocido como PC (Program Counter) o IP
(Instruction Pointer) almacena la dirección de la próxima instrucción a
ejecutar.
El segundo, también conocido como IR (Instruction Register), almacena el
código de la operación que está siendo ejecutada en un momento dado.
Por cada instrucción del programa que está siendo ejecutada por el sistema,
la UC recorre una serie de etapas que se dividen en dos fases:
·
Fase de busqueda e interpretación:
El objetivo de esta fase obtener el código de la siguiente instrucción a
ejecutar y que se encuentra almacenada en la memoria principal. Los pasos a
grandes rasgos son:
Recobrar la instrucción de la
memoria del ordenador. La instrucción a recobrar se encuentra en la dirección
señalada por el registro IP. El córdigo de la instrucción leída pasa al RI
donde será decodificada.
Interpretar el código de la
instrucción. La instrucción que después de obtenida se guarda en el IR, pasa a
través del decodificador el cual genera las señales de control asociadas al
código de la instrucción
Se incrementa el IP en uno y así
se apunta a la siguiente instrucción a ejecutar.
·
Fase de ejecución propiamente dicha:
Durante el ciclo de ejecución la instrucción interpretada es ejecutada
enviando a cada componente las señales de control generadas. Los pasos son:
Se obtienen los datos implicados
en la instrucción si es necesario
Se ejecuta la instrucción
unidad aritmético-lógica
La unidad aritmético-lógica es la parte del microprocesador que
realiza los cálculos y las operaciones con los datos indicados en las
instrucciones. Podríamos llamarla “calculadora” si únicamente realizase operaciones
aritméticas, pero como es capaz de realizar operaciones del varios tipos es
mejor llamarla unidad aritmético-lógica para destacar que es capaz de realizar
operaciones lógicas. Estas operaciones lógicas que la ALU puede realizar son,
en realidad, la simple aplicación de unas reglas simples de comparacion de dos
datos. Pueden establecerse comparaciones de igual, mayor que, menor que, menor
o igual que y mayor o igual que. Usando estos tipos de instrucciones el
ordenador podrá simular el comportamiento logico humano y adoptar
actuaciones diferentes frente a situaciones diferentes. Pero esto no es
inteliwgencia automática o inteligencia artificial: debe ser el programa
realizado por el programador el que contemple convenientemente el uso de estas
instrucciones para simular la capacidad de decisión que la inteligencia
comporta.
La ALU posee una circuiteria que le proporciona la capacidad de realizar
estas operaciones aritméticas y lógicas con los datos. El conjunto de
operaciones que puede llevar a cabo la ALU están concebidas y fijadas durante
su diseño. en el caso de una ALU elemental, ésta podrá: sumar, restar, realizar
operaciones lógicas (Y, O, NO) y relacionales (=, >, <, >=, <=,
<>). El resto de operraciones se realizarán a partir de las operaciones
elementales, por ejemplo multiplicar dos números se haría mediante una sucesión
de sumas.
Podemos hacer un símil entre un ordenador y una orquesta dirigida por un
director de orquesta. Toda la orquesta compondría el hardware del sistema. El
director de orquesta actuaría como el microprocesador: su labor es leer una
serie de instrucciones (partitura) y enviar órdenes al resto de la orquesta
para que ésta “funcione”. Los músicos y sus instrumentos funcionarían como
elemento periféricos: reciben órdenes del microprocesador y actúan en
consecuencia. La partitura del director sería el programa, que está almacenado
en la memoria del ordenador: sin tal partitura, la orquesta no hace nada. La
labor del director es ir tomando las instrucciones escritas en la partitura y
dar las órdenes correspondientes a los músicos. El director no haría nada por
iniciativa propia: solamente lee la partitura y actúa en consecuencia.
En el símil anterior de la orquesta, quizás la parte que más adecuadamente
se ajuste a la labor del director de orquesta es la unidad de control: no toca
ningún instrumento, pero su batuta es la que hace que cada instrumento
intervenga en el momento oportuno. Para marcar los intervalos precisos de
tiempo de las actividades de todos los dispositivos que que controla, la unidad
de control dispone - también a semejanza de un dirécto de orquesta- de un
cadenciómetro para lograr la sincronización. En un microprocesador esta labor
la lleva a cabo el reloj.
repertorio o juego de instrucciones
La potencia de un microprocesador dependerá de su velocidad en la ejecución
de las instrucciones pero también del tipo, variedad y riqueza de operaciones
que sea capaz de realizar. Cada microprocesador dispone de un repertorio de
instrucciones propio, que se conoce como juego de instrucciones del
microprocesador. Este juego depende de la circuitería interna con la cual ha
sido diseñado. La programación íntima y verdadera del procesador debe hacerse
usando ese juego de instrucciones de que de la máquina concreta con la que
estemos trabajando. Afortunadamente, existen lenguajes de programación que nos
evitan tener que aprender el lenguaje de cada máquina particular.
Dentro del repertorio completo de instrucciones del microprocesador
existirán un conjunto asociado a las distintas operaciones que puede realizar
la ALU. Cuando la UC identifica un código de instrucción que indica una
determinada operación de la ALU, generará las señales oportunas para activar la
operación correspondiente dentro de la ALU.
El formato general de las instrucciones que son ejecutadas por el
microprocesador se ajusta al formato:
<Código de operación> <Operando 1> <Operando 2>
Pueden existir operaciones que solo contengan un operador o incluso
ninguno.
Supongamos un microprocesador que puede realizar la siguiente operación:
Sumar el contenido de un registro con un determinado valor y guardar el
resultado en el propio registro.
Consideremos que el código de dicha operación es 0011. El registro se
llamará A, y el valor a sumar es 2. La instrucción que debería recibir el
microprocesador para sumar el contenido de A con el valor 2 es:
0011 0010 (código de operación, y primer y único operando)
Al entrar en un ciclo de búsqueda la UC extraerá desde la posición de
memoria señalada por IP el código de la siguiente instrucción a ejecutar. Al
recibir el código de instrucción 0011 se enviarán las señales de control
necesarias para:
Hacer llegar los operandos
implicados en la suma a la ALU (contenido del registro A, y valor 0010)
Indicarle a la ALU que debe
prealizar una operación de SUMA.
Almacenar el resultado de la suma
efectuada en el registro A
Estas señales son una simplificación de todas las señales
elementales que habrían de ser generadas.
La popularización de los microordenadores comenzó en los años 70 con el
ordenador Apple II, sin embargo su impacto comercial comienza cuando IBM lanza
en 1981 su ordenador personal PC (“Personal Computer”) basado en el
microprocesador 8088 de Intel. A este lanzamiento le siguieron otros muchos
fabricantes: Compaq, ALR, Olivetti, Tandom, Hewlett-Pakard, etc... Desde
entonces la evolución ha sido continua en la aparición de nuevos
microprocesadores y modelos de microordenadores cada vez más potentes y
veloces. Hoy en día prácticamente todos los fabricantes de ordenadores comercializan
ordenadores personales. Se puede decir en comparación con la industria del
automóvil, que los ordenadores personales vienen a ser los utilitarios de la
Informática.
Actualmente la mayor parte de los microordenadores están basados en dos
grandes familias de microprocesadores: la Intel y la Motorola. La familia Intel
(8088, 8086, 80286, 80386, 80486, Pentium) es la base de todos los ordenadores
IBM y compatibles (PC, XT, AT, PS/2, 386, 486, Pentium). La familia Motorola
(68000,68010, 68020, 68030, 68040) es la base de los ordenadores Apple
Macintosh.
Son especialmente populares los ordenadores de tipo PC. A este tipo de
ordenadores están orientadas la mayoría de las descripciones presentes en este
tema.
procesadores risc y cisc
Existen en la actuaflidad dos grandes tendencias en la construcción de
procesadores. Éstas se diferencian esencialmente en las características de su
repertorio de instrucciones.
Los procesadores CISC (Complex
Instruction Set Computer) tienen un repertorio con un número de
instrucciones alto (200-300); estas instrucciones además son más complejas que
las de RISC, con lo que la circuitería necesaria para decodificación y secuenciación
también aumenta, y la velocidad del proceso disminuye. Como ventaja, tenemos
que se necesitan menos insttrucciones para ejecutar una tarea. Además, el
formato de las instrucciones es bastante variable (es decir, hay bastantes
formatos). Además, el diseño hace que el procesador tenga que realizar
constantes accesos a memoria.
Este tipo de procesadores es en el que se basan los PC´s.
Los procesadores RISC (Reduced
Instruction Set Computer) tienen características opuestas a los CISC. Su
juego de instrucciones es más reducido (menos de 128), y las instrucciones son
más sencillas (con lo que se necesitarán más instrucciones para ejecutar una
tarea). El formato de instrucciones es fijo (o serán pocos formatos), con lo
que el control del hardware es más sencillo y se facilita la colocación de las
instrucciones en la memoria, lo que implica que los accesos a la memoria se
aceleren. Por otra parte, estos accesos a memoria son menos frecuentes ya que
el procesador posee un mayor número de registros.
Estos procesadores son los que están presentes en las estaciones de
trabajo. Como ejemplos podemos citar los procesadores ALPHA de Digital Equipment,
y los SuperSPARC y MicroSPARC de Sun Microsystems y Texas Instruments.
Relacionada con los conceptos RISC y CISC está la técnica pipeline;
esta técnica consiste en dividir la ejecución de la instrucción en bloques
independientes que se ejecutan en paralelo. Es hmás eficiente para los
procesadores RISC, aunque también se implementa en CISC.
monitor
El proceso de visualización de datos es posible gracias al sistema de vídeo
del ordenador. Un sistema de vídeo consta del monitor, tarjeta gráfica y
programa controlador.
El monitor visualizar la jinformación que se genera en el programa
que se ejecute en el ordenador. Está controlado por la tarjeta gráfica. El
tamaño del monitor viene dado por la longitud de la diagonal de la pantalla.
Los habituales son de 14, 15, 17, 20 y 21 pulgadas.
El ordenador manda informaciones a la tarjeta de vídeo, y el monitor
transforma esas informaciones en un rayo electrónico que ilumina la pantalla en
un punto. Esto todavía no conduce a la formación de una imagen completa, sino tan
solo contribuye a la formación de un minúsculo punto luminoso (PIXEL). La
imagen del monitor constará de muchos de esos puntos. El rayo electrónico se
moverá desde la esquina superior izquierda de la pantalla hasta la inferior
derecha, siguiendo un movimiento horizontal y otro vertical. De esta forma crea
consecutivamente uno tras otro todos los puntos de la pantalla que sonn
necesarios para crear una imagen completa, a partir de señales que envía la
tarjeta de vídeo. Para que el primer punto permanezca visible mientras el rayo
electrónico está iluminando al último, la parte interior de la pantalla está
recubierta por una ckapa de numerosísimas partículas fosforescentes, que tienen
como misión prolongar durante un cierto tiempo la iluminación que les ha sido
transferida. En el momento en que se ha conseguido una imagen completa, el rayo
electrónico vuelve a posicionarse en la esquina superior izquierda para enviar
un nuevo impulso de iluminación.
Se conoce como frecuencia de barrido vertical o frecuencia de
refresco de pantalla al número de veces por segundo que el rayo electrónico
recorre la pantalla. La frecuencia de refresco de imagen en monitores de PC
usuales se encuentra entre 50 y 70 Hertzios (Hz). Esto significa que la imagen
completa se construye de 50 a 70 veces por segundo. Cuanto más elevada sea la
frecuencia, más tranquila aparecerá la imagen. El ojo humano es capaz de
registrar del orden de 25 imágenes por segundo y por tanto se muestra demasiado
perezoso para darse cuenta de forma notable de esta sucesión de repetición de
la imagen. El trabajo con la pantalla resulta mucho menos cansado en el
supuesto de un monitor de 70 Hz.
Existen dos técnicas de barrido: los monitores “no entrelazados” barren
todas las líneas horizontales sin saltarse ninguna. Los monitores
“entrelazados” barren una línea de cada dos, barriendo en la siguiente pasada
las líneas saltadas.
El programa controlador o driver es el elemento software
encargado de la comunicación entre los programas de aplicación y la tarjeta
gráfica. Estos controladores relacionan el formato del programa principal con
el que maneja el procesador gráfico.
La tarjeta gráfica es interface hardware que controla el monitor.
Actúa como punto de conexión entre el monitor y el procesador. Los elementos
que componen una tarjeta gráfica son:
conexión con el PC: parte de la tarjeta que se insertará en el slot del
ordenador.
conector para el monitor: sirve para enviar la información de la tarjeta al
monitor; consiste en un “enchufe” especial de 15 pins.
Memoria de pantalla: los tipos de memorias que puede contener una tarjeta
gráfica son:
·
ROM (ROM de vídeo). Contienen los juegos de caracteres,
gráficos y numéricos y los formatos para la conversión de formasto ASCII a
patrones de puntos.
·
DRAM (RAM dinámica). Es la más general y es “monotarea”
(sólo puede leer o escribir datos al mismo tiempo, ya que sólo dispone de un
puerto de comunicaciones.
·
VRAM (RAM de vídeo). Es más beloz, porque dispone de dos
puertos de comunicaciones para permitir lectura y escritura simultáneas.
·
En los últimos tiempos han comenzado a usarse otros tipos
de RAM, como EDO RAM, WRAM, SGRAM y RAMBUS, que ofrecen mejoras en los tiempos
de acceso y mayor velocidad de transferencia.
controladora de vídeo: reproduce total o parcialmente el contenido de la
memoria de pantalla en intervalos periódicos de tiempo.
teclado
Hoy por hoy, el dispositivo principal de introducción que le sirve al
usuario como medio de comunicación con el ordenador sigue siendo el teclado, si
bien en entornos gráficos es casi imprescindible además el uso de un ratón.
Desde siempre ha sido considerado como parte fija del ordenador, por ejemplo
las antiguas consolas y terminales, pero para aumentar la comodidad y eficacia
se separó del mismo, aunque manteniéndose unido a través de un cable.
No todos los teclados se adaptan a cualquier ordenador. Esto proviene del
tipo de ordenador, en el cual IBM marcó las diferencias.
el teclado pc/xt
Los primeros PC de IBM que se lanzaron al mercado lo hicieron con un
teclado albergado en una pesada carcasa metálica. Estaban equipados con un
total de 83 teclas exactamente. A diferencia de los teclados usuales de
hoy en día, no disponían de indicadores LED que anúnciasen el status de
las teclas Num Lock, Caps Lock y Scroll Lock. Las teclas de función desde F1
hasta F10 se localizaban en dos filas verticales en el lado izquierdo del
teclado. La tecla Esc se encontraba en el campo de letras y números en la
esquina superior izquierda al lado del 1.
el teclado pc/at
En los ordenadores de la clase AT desarrollados posteriormente por IBM se
llevó a cabo una ligera modificación por parte de IBM, pero dentro de la
misma carcasa. La situación de la mayoría de las teclas se conservó sin
modificaciones. Las teclas numéricas, de control del cursor y las de cálculo se
agruparon en un bloque aparte, que se colocós en el margen derecho del
teclado. Además fue albergada allí una segunda tecla Intro. Pero tampoco se
disponía de indicadores LED parga el status del teclado.
el teclado at ampliado
Partiendo del teclado antes descrito, el teclado AT, se llevó a cabo
nuevamente una importante ampliación que sí modificó de forma esencial el
mismo. El número de teclas de función se aumentó de 10 a 12, a la
vez que fueron albergadas en línea horizontal en la parte superior del teclado.
A la izquierda de esta línea se albergó la tecla Esc y a la derecha se
instalaron tres adicionales de función fija (Imp Pant, Bloq Despl y
Pausa). Entre el teclado alfanumérico y el numérico se albergaron 10 teclas
adicionales (las cuatro direcciones del cursor, Insertar, Suprimir, Inicio,
Fin, Avanzar Página y Retroceder Página)
Algunas teclas se encontraban repetidas para posibilitar un uso más
flexible. Por esto es por lo que el teclado ampliado para AT recibió el nombre
de MF (Multi Function). Una ampliación muy útil fue la instalación de LED's
para el estado del teclado.
el teclado de windows 95
Con la llegada de Windows 95, Microsoft ha diseñado un nuevo teclado, el
cual a parte de ser un teclado estándar AT, añade unas teclas específicas con
determinadas tareas propias de este sistema operativo.
el código de teclas (scan code)
Cada vez que una tecla es pulsada, se transmite un determinado código de
tecla desde el procesador del teclado a la CPU. Esta traduce el código de
teclas en el símbolo correspondiente. Es por lo que es posible desarrollar
diferentes dispositivos de teclado para distintos idiomas, y siempre
conservando las mismas teclas.
Las distintas clases de teclados no sólo se diferencian en lo referente a
sus teclas, sino también en lo que se refiere al código de teclas. Así, por
ejemplo, el tmeclado del XT envía al apretar la tecla de espacio el código de
teclas 57 a la CPU, mientras que el teclado AT mandaría el código 61. Así
podemos deducir fácilmente que los teclados no son intercambiables directamente
entre distintos tipos de PC.
Los ordenadores actuales, independientemente de la clase a la que
pertenezcan, disponen todos de teclados del tipo MF (con o sin las teclas de
Windows 95) .Un pequeño interruptor casi siempre situado en la base de la
carcasa del teclado, hace que el teclado se adapte a un XT o a un AT.
teclados especiales
Actualmente exmisten en el mercado teclados especiales que disponen, a
parte de funciones de teclado “normales”, de un Trackboard integrado. Un
Trackboard integra en el teclado las funciones propias del ratón. Se trata en
este caso de un teclado MF completo, en cuya carcasa se encuentra
adicionalmente instalada una bola que puede girar libremente. El trackboard
tiene la misma utilidad que un dispositivo de ratón, es decir, el cursor se
mueve libremente sobre la pantalla siguiendo las indicaciones del Trackball.
Tres teclas adicionales simulan las teclas del ratón.
Por último, indicar que al conjunto de monitor más teclado se le suele
conocer como consola.
ratón
El uso del ratón facilita enormemente el trabajo, especialmente en entornos
gráficos. El ratón forma parte de la categoría de dispositivos periféricos de
entrada y actúa como puntero.
La mayoría de los ratones trabajan mecánicamente (ratón mecánico).
En su parte inferior se encuentra instalada una bola de acero recubierta de
goma. Al mover el ratón sobre una superficie, el movimiento de rotación de la
bola se transmite a los discos de codificación a través de dos bolas de acero.
El movimiento de estos discos de codificación es captado por los registradores
ópticos y transmitidos a la electrónica del ratón. Allí serán finalmente
traducidos los valores de movimiento en señales en serie, y sferán a
continuación transmitidos a través de un bus a la CPU. Un programa de
configuración previamente cargado y residente en la memoria recibe los datos de
movimiento del ratón en unidades Mickey (1/100 pulgadas).
A diferencia del ratón mecánico, el ratón óptico no necesita estar
físicamente conectatdo al ordenador mediante un cable. Todos los ratones tienen
en común dos o tres teclas de ratón en su parte superior.
impresora
La impresora es un periférico de salida, por medio del cual transferimos
los datos al papel.
En principio cualquier impresora puede ser instalada en cualquier PC
compatible, sguponiendo que los dos aparatos dispongan de la conexión adecuada.
La conexión de la impresora se realiza sin problemas con un cable Centronics en
paralelo de los que habitualmente se encuentran disponibles en el mercado.
No obstante, pueden surgir numerosos problemas a la hora de realizar la
adaptación de la impresora. Pero en la mayoría de los casos se trata de un
problema de colaboración entre el programa de aplicación y la impresora. No es
el ordenador el que se tiene que adaptar a la impresora o viceversa, sino que
es el programa de aplicación el que se tiene que adaptar af la impresora.
impresora matricial
Estas impresoras componen cada signo a imprimir a través de una matriz de
puntos. Cuanto más compactos estén colocados estos puntos de impresión, más
legible resultará la resolución de la imagen impresa.
En el mercado podemos encontrar impresoras con diferente número de agujas:
9, 18, 24, 48… Cuantas más agujas se tegngan, menos reconocibles son cada uno
de los puntos y en consecuencia el signo impreso se hace más nítido y legible
(mayor calidad cuanto mayor número de agujas).
Para mejorar el resultado final de la imagen escrita, un gran número de
impresoras ofrecen el denominado modo NQL (Near Letter Quality). Con este sistema,
cada signo se imprime dos veces, pero no superpuesto, sino ligeramente
desplazado. Mediante este sistema se consigue una mayor densidad de puntos. Sin
embargo, la repetición de la impresión hace que se emplee más tiempo.
impresora de chorro de tinta
Otra técnica de impresión es el sistema de chorro de tinta, el cual se
diferencia del anterior sobre todo en lo que se refiere a su trabajo
silencioso; es decir, que prácticamente trabaja sin ruido. También la velocidad
de impresión es en este caso más elevada, y lo mismo ocure con la calidad
de impresión. Además no se precisa cinta de impresión. El cabezal de impresión
no se pone en ningun momento en contacto con el papel; en realidad se imprimen
minúsculas gotitas de tinta al papel a presión, a través de pequeños tubos
accionados por impulsos eléctricos. De esta forma una pequeña cantidad de tinta
sale a fuerte belocidad, y prácticamente se seca cuando se pone en contacto con
el papel.
Como inconvenientes de esta técnica de impresión podemos decir que no se
pueden usar papeles de calco, y que no se puede usar cualquier papel si
queremos una impresión de calidad. El papel ha de ser muy absorbente pero no
muy basto para que la tinta no se corra.
impresión térmica
Es una técnica de impresión menos extendida. Se basa en el sistema de
termorreacción y la técnica de transferencia térmica. Las impresoras térmicas
exigen un papel especial que libera color a través de una reacción química que
se produce en presencia de calor. La materia colorante del papel térmico, al
reaccionar con el calor producido por el cabezal de la impresora, crea la
imagen de impresión. Estas impresoras no necesitan ningún tipo de cinta y la
impresión que se produce es extremadamente silenciosa. Suministran una
impresión muy nítida con un negro intenso. El gran inconveniente es que no son
recomendables para importantes volúmenes de papel debido fundamentalmente a su
elevado coste.
impresoras de margarita
Emplean el mismo principio de impresión que las máquinas de escribir de
margarita. Los caracteres de impresión (típicamente 96) se encuentran
albergados en un pequeño disco que gira hasta conseguir la posición adecuada. A
continuación, un mabrtillo golpea el carácter contra la cinta, llevando el
símbolo al papel.
La velocidad de impresión es mucho más lenta que en las vistas hasta ahora,
pero la impresión ofrecida es precisa y nítida. Otro inconveniente es el
elevado ruido que provocan.
impresoras láser
Es la de más aceptación en la actbualidad, junto con las impresoras de
chorro de tinta. Ofrece gran variedad de tipos de escritura, un nivel de ruido
mínimo y una elevada rapidez en el trabajo.
Utilizan básicamente la misma técnica de impresión que las fotocopiadoras.
La impresión no es línea a línea, sino por páginas. Esto le obliga a disponer de
una memoria de trabajo lo suficientemente grande. Las representaciones gráficas
fácilmente ocupan varios Mbytes, mientras las matriciales debido a su técnica
de impresión por líneas, necesitan solamente un buffer de unos pocos Kbytes.
El color se lleva al papel mediante carboncillo (tóner), qbue es incinerado
a continuación. La luz y el calor de un láser crean la imagen de impresión. Una
característica más importante de estas impresoras es que el texto y los
gráficos se elaboran e imprimen conjuntamente. La calidad de impresión es muy
alta y también lo es la velocidad.
Un grupo especial entre las impresoras láser lo constituyen las denominadas
láser PostScript. Bajo este concepto se entiende un lenguaje de
impresión de páginas. A través de este lenguaje, los contenidos de cada página
no son enviados a la impresora en forma de matriz de puntos,sino en forma de
gráfica vectorial. Mientras que la impresora en el sistema convencional recibe
del ordenador cadav uno de los puntos a imprimir, con este lenguaje se puede
comunicar a la impresora instrucciones del tipo “imprime un círculo con centro
en el centro de la página, 5 cm de radio y 2 mm de grueso de línea”.
tableta digitalizadora
En una tableta digitalizadora representaremos dibujos del mismo modo que en
una mesa de dibujo. Los movimientos del lápiz de dibujo se traducen en
informaciones digitales que se envían al ordenador a través de un cable serie.
De esta forma el dibujo puede ser almacenado dve forma completa en disquetes o
discos duros y posteriormente podrá ser cargado y modificado.
scanner
Para poder llevar datos ya existentes (como por ejemplo textos o gráficos
que ya se encuentran impresos) a un soporte informático (para poder por ejemplo
mezclarlos con otros datos o continuar elaborándolos) podemos usar un scanner,
que leerá la información y la introducirá en el ordenador.
plotter
Es un periférico de salida con el que se pueden representar dibujos. Lo
específico de los plotters es que se consigue una precisión extremadamente
elevada en la representación gráfica.
A diferencia de las impresoras, el papel no se conduce siempre en el mismo
sentido, sino que es capaz de avanzar y retroceder.
La aplicación principal de los plotters se encuentra sobre todo en las
estaciones de diseño asistido por ordenador (CAD) en las cuales se crean
dibujos técnicos, construcciones arquitectónicas y croquis con la ayuda de
programas especiales, que posteriormente serán impresos.
modem
El módemn, que sirve para la transmisión de datos a distancia, puede actuar
tanto como dispositivo de entrada como de salida. Con un módem es posible
enviar y recibir datos de un ordenador a través de una línea telefónica o de
cualquier otro tipo de transmisión de datos.Pueden estar integrados en tarjetas
de expansión internas, o ser externos (conectados a través de un puerto y cable
serie).
Módem significa MOdulador/DEModulador. Esencialmente su función es la de
convertir los datos digitales generados por el ordenador, en información
analógica que puede discurrir por la línea telefónica. El módem receptor a su
vez debe volver a digitalizar la información que le llega para transmitirla al
PC al que esté conectado.
tarjetas de comunicaciones
Los elementos que se van a describir dentro de este apartado entrarían más
dentro de la clasificación de conexiones que en la de periféricos, ya que
sirven de conexión entre un periférico externo y el ordenador.
puerto paralelo
A veces denominado puerto de impresoras, ya que su función principal
consiste en la transmisión de datos a una impresora mediante un cable de
impresora en paralelo (Centronics).
La denominación de puerto parallelo proviene del hecho de que esta conexión
realiza transmisión de datos en paralelo (8 bytes simultáneamente).
puerto serie
Se diferencia fundamentalmente del paralelo en que la transmisión se
realiza bit a bit consecutivamente. Por lo tanto la transmisión será más lenta.
En principio el puerto serie estaba pensado para hacer posible la
transmisión de datos mediante un módem. Más tarde se idearon otros dispositivos
periféricos, tales como ratones, impresoras…
adaptadores de red
Los adaptadores de red, tarjetas de red o tarjetas de comunicaciones son
unas extensiones especializadas en la conexión del PC con una red de
ordenadores.
unidades de disco
Existen varios tipos, en función del soporte: unidades de disquetes,
unidades de discos duros, unidades de CD-ROM… Actualmente han alcanzado cierta
popularidad las unidades ZIP y también han aparecido en el mercado las unidades
lectoras de DVD.
Los discos son gestionados por un controlador de disco, que es un
dispositivo electrónico que transforma las órdenes del ordenador en movimientos
de la unidad de disco. Este controlador hará las funciones propias de interface
que ya se han comentado.
Por ejemplo, en el caso de los discos duros, la controladora
efectuará la conexión entre la unidad de disco duro y el bus de datos. Para
ello, fundamentalmente se ocupará de:
·
traducir los datos del “emisor” a una forma comprensible
para el “receptor” (TRADUCTOR DE DATOS)
·
reglamentar la secuencia de tiempo de emisión y recepción
(SEMÁFORO DE DATOS)
y además tendrá que ser rápido y corregir las deficiencias de lectura.
En la actualidad los dos modelos de controladoras que se reparten el
mercado son las IDE y las SCSI.
documentación
La documentación es una parte muy importante del sistema. Se entiende por documentación
tanto los manuales del sistema, como los contratos de venta o alquiler del
mismo, o la relación de puestos de mantenimiento y venta de componentes del
sistema.
El hardware viene documentado por los manuales técnicos, que especifican
las características físicas del sistema: dimensiones, peso, alimentación
eléctrica, etc.
Asimismo, el software ha de estar documegntado mediante los
correspondientes manuales del sistema operativo y sus utilidades, así como los
manuales de todos los lenguajes que incluye el sistema.
Una buena documentación debe permitir al propietario del sistema llevar a
cabo las siguientes funciones:
Comprobar que el sistema recibido
se encuentra en perfecto estado y con todos los componentes hardware y software
que lo integran.
El correcto aprendizaje y
utilización del sistema por parte del usuario no informático.
La facilidad de adiestrarse en una
utilización global e intensiva del sistema, por parte del personal
especializado.
La especificación de las futuras
ampliaciones a que puede verse sometido el sistema, tanto desde el hardware
como desde el software.
Para ello la documentación ha de incluir las siguientes partes:
Una lista completa de los números
de serie, versión revisión de todo el hardware y software suministrado.
Un manual del usuario escrito de
forma accesible.
Un manual de mantenimhiento del
sistema por parte del personal no informático.
Una breve explicación del uso de
todas las partes del sistema (teclado, pantalla, lectoras de disco, etc.) y de
todo el software suministrado. Estas explicaciones deben estar escritas de
forma clara y concisa.
Esquemas de todos los circuitos
internos del ordenador, especificando los componentes utilizadohs.
Listados fuente del Sistema
Operativo.
Explicación de la estructura del
sistema operativo, sus subrutinas y puntos de llamada.
Manuales de todos los lenguajes
soportados por el ordenador, incluyendo mapas de memoria para cada compilador o
ensamblador.
Especificaciones de las
modificaciones a realizar en el sistema para la ejecución de ciertos programas.
Una completa relación de todos los
mensajes de error, su causa y su solución.
Todos los manuales y escritos
presentados han de estar perfecta y profundamente indexados.
Relaciones de todos los
sumstradores de ampliaciones para el sistema, tanto para el hardware como para
el software.
3. COMPONENTES LÓGICOS (DATOS Y
SOFTWARE)
3.1 DATOS
La palabra datos proviene del latín datum (plural data) que
significa “lo que se da”, en el sentido de “lo que acontece”. El diccionario de
la Real Academia de la Lengua Española dice que los datos son: “antecedentes
necesarios para llegar al conocimiento exacto de una cosa o para deducir las
consecuencias legítimas de un hecho”.
Los datos suelen ser magnitudes numéricas directamente medidas o captadas,
pero también pueden ser nombres o conjuntos de símbolos; o valores cualitativos;
o frahses enteras, premisas, imágenes, sonidos, colores…
Los datos, la información, se representa mediante secuencias de símbolos.
Por ejemplo, en nuestra vida diaria representamos las palabras mediante letras
tomadas de nuestro alfabeto. Éste es simplemente uno entre los muchos alfabetos
existentes. Una misma letra puede tener sonidos diferentes según el idioma que
se esté usando, y una palabra con sentido en un idioma puede carecer de él.
Además, los símbolos que empleamos para representar los números son los dígitos
del 0 al 9. Existen otros sitemas como el heredado de los romanos, que es más
difícil de usar.
Si pensamos en el párrafo anterior, vemos queloque ocurre es que en base a
un alfabeto cualquiera que establecemos por un acuerdo cultural, podemos
representar cualquier información compuesta de palabras y cantidades numéricas,
y así el que lee entenderá al que escribe.
Un alfabeto no es más que un conjugnto, fijado por acuerdo cultural, de
símbolos elementales en base a los cuales se forma la información. Es
importante recalcar la arbitrariedad de cualquier alfabeto porque si la
informática ha logrado el tratamiento automático de la información con
máquinas, ha sido gracias a este concepto. No es necesario que el alfabeto que
usa una moquina en su interior sea el mismo que el que utiliza el hombre que la
ha construido y la maneja, basta con que la traducción de los símbolos internos
a los externos o viceversa se efectúe de una manera cómoda, y a ser posible (y
lo és) automáticamente por la propia máquina.
Cuando una información que originalmente venía representada en un alfabeto
A1 es transcrita a un segundo alfabeto A2, se dice que ha sido codificada.
Así, se puede definir un código como una representación unívoca de
las informaciones de tal forma que a cada una de éstas se le asigna una
combinación de símbolos determinada. Un ejemplo clásico es el código Morse
empleado en los inicios de la telegrafía.
Cuando los símbolos a codificar (alfabeto A1) son transcritos a secuencias
de un alfabeto (alfabeto A2) que sólo tiene dos símbolos, diremos que
tenemos un sistema de codificación binaria. Estos sistemas son
especialmente importantes en informática, pues son los que se usan
habitualmente. El motivo para usar un alfabeto de tan sólo dos símbolos es de
tipo técnico, como ya veremos.
3.1.1 sistemas de numeración
Nuestro sistema de numeración habitual es de base 10 (o decimal),
es decir:
·
Existen 10 dígitos (0, 1, …, 9) posibles en cada posición
del número.
·
Numerando de derecha a izqhuierda los dígitos de un número,
empezando con el cero, el valor (peso) de posición del dígito n es 10n.
Por ejemplo, 1234 en base 10 quiere decir:
1×103 + 2×102 + 3×101 + 4×10
3.3 CATEGORÍAS DE COMPUTADORAS Y
SISTEMAS DE CÓMPUTO
Tipos de Sistemas
Operativos
Un sistema Operativo (SO) es
en sí mismo un programa de computadora. Sin embargo, es un programa muy
especial, quizá el más complejo e importante en una computadora. El SO
despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla
do, el sistema de vídeo y las unidades de disco.
Además, proporciona la
facilidad para que los usuarios se comuniquen con la computadora y sirve de
plataforma a partir de la cual se corran programas de aplicación.
Los sistemas operativos más
conocidos son los siguientes:
1) DOS: El famoso DOS, que quiere decir Disk
Operating System (sistema operativo de disco), es más conocido por los nombres
de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software Microsoft y es
en esencia el mismo SO que el PC-DOS.
La razón de su continua
popularidad se debe al aplastante volumen de software disponible y a la base
instalada de computadoras con procesador Intel.
Cuando Intel liberó el 80286,
DOS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS
representaron la mayoría del mercado de software para PC. En aquel tiempo, la
compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y
la "compatibilidad IBM" significaba computadoras que corrieran DOS
tan bien como las computadoras IBM lo hacían.
Aún con los nuevos sistemas
operativos que han salido al mercado, todavía el DOS es un sólido contendiente
en la guerra de los SO.
2) Windows 3.1: Microsoft tomo una decisión, hacer un
sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y
como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla que
representan diferentes archivos o programas, a los cuales se puede accesar al
darles doble click con el puntero del mouse. Todas las aplicaciones elaboradas
para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software
una vez aprendido las bases.
3) Windows 95: En 1995, Microsoft introdujo una
nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen
soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores
aplicaciónes para mejorar la eficacia del trabajo.
4) Windows NT: Esta versión de Windows se
especializa en las redes y servidores. Con este SO se puede interactuar de
forma eficaz entre dos o más computadoras.
5) OS/2: Este SO fue hecho por IBM. Tiene
soporte de 32 bits y su interfaz es muy buena. El problema que presenta este
sistema operativo es que no se le ha dad el apoyo que se merece en cuanto a
aplicaciones se refiere. Es decir, no se han creado muchas aplicaciones que
aprovechen las características de el SO, ya que la mayoría del mercado de
software ha sido monopolizado por Windows.
6) Mac OS: Las computadoras Macintosh no serían
tan populares como lo son si no tuvieran el Mac OS como sistema operativo de
planta. Este sistema operativo es tan amigable para el usuario que cualquier
persona puede aprender a usarlo en muy poco tiempo. Por otro lado, es muy bueno
para organizar archivos y usarlos de manera eficaz. Este fue creado por Apple
Computer, Inc.
7) UNIX: El sistema operativo UNIX fue creado
por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las
bases para la supercarretera de la información. Unix es un SO multiusuario y
multitarea, que corre en diferentes computadoras, desde supercomputadoras,
Mainframes, Minicomputadoras, computadoras personales y estaciones de trabajo.
Esto quiere decir que muchos usuarios puede estar usando una misma computadora
por medio de terminales o usar muchas de ellas.
3.4 TIPOS DE
SOFTWARE
Tipos de software
El término software (partes suaves o blandas en castellano) hace
alusión a la sumatoria de aquellas reglas, programas, datos, documentación e
instrucciones que permiten la ejecución de múltiples tareas en un ordenador. Es
su parte lógica e intangible y actúa como nexo entre el usuario y el hardware
(partes duras), es decir, la parte tangible de la computadora.
A grandes rasgos, se puede decir que existen tres tipos de software:
Software de Aplicación: aquí se incluyen todos
aquellos programas que permiten al usuario realizar una o varias tareas
específicas. Aquí se encuentran aquellos programas que los individuos usan de
manera cotidiana como: procesadores de texto, hojas de cálculo, editores,
telecomunicaciones, software de cálculo numérico y simbólico, videojuegos,
entre otros.
Software de Programación: son aquellas herramientas
que un programador utiliza para poder desarrollar programas informáticos. Para
esto, el programador se vale de distintos lenguajes de programación. Como
ejemplo se pueden tomar compiladores, programas de diseño asistido por
computador, paquetes integrados, editores de texto, enlazadores,
depuradores, intérpretes, entre otros.
Software de Sistema: es aquel que permite a los
usuarios interactuar con el sistema operativo así como también controlarlo.
Este sistema está compuesto por una serie de programas que tienen como objetivo
administrar los recursos del hardware y, al mismo tiempo, le otorgan al usuario
una interfaz. El sistema operativo permite facilitar la utilización del
ordenador a sus usuarios ya que es el que le da la posibilidad de asignar y
administrar los recursos del sistema, como ejemplo de esta clase de software se
puede mencionar a Windows, Linux y Mac OS X, entre otros. Además de los
sistemas operativos, dentro del software de sistema se ubican las herramientas
de diagnóstico, los servidores, las utilidades, los controladores de
dispositivos y las herramientas de corrección y optimización, etcétera.