jueves, 2 de diciembre de 2010

La magnetorresistencia gigante

La magnetorresistencia gigante (en inglés, Giant Magnetoresistance Effect o GMR) es un efecto mecánico cuántico que se observa en estructuras de película delgada compuestas de capas alternadas ferromagnéticas y no magnéticas. Se manifiesta en forma de una bajada significativa de la resistencia eléctrica observada bajo la aplicación de un campo magnético externo: cuando el campo es nulo, las dos capas ferromagnéticas adyacentes tienen una magnetización antiparalela puesto que están sometidas a un acoplamiento ferromagnético débil entre las capas. Bajo efecto de un campo magnético externo, las magnetizaciones respectivas de las dos capas se alinean y la resistencia de la multicapa cae de manera súbita. Los spines de los electrones de la sustancia no magnética se alinean en igual número de manera paralela y antiparalela al campo magnético aplicado, y por tanto sufren un cambio de difusión magnética en una menor medida respecto a las capas ferromagnéticas que se magnetizan de forma paralela.

lunes, 29 de noviembre de 2010

El impacto que conlleva el nuevo marco globalizado del mundo actual y sus imprescindibles y poderosas herramientas Tecnológicas, está induciendo a una profunda revolución en todos los ámbitos sociales, que afecta también al mundo educativo.


La actual Sociedad de la Información , caracterizada por el uso generalizado de las Tecnologías de la Información y la Comunicación (TIC), en todas las actividades humanas y por una fuerte tendencia a la mundialización económica y cultural, exige de todos los ciudadanos, nuevas competencias personales, sociales y profesionales para poder afrontar los continuos cambios que imponen en todos los ámbitos los rápidos avances de la Ciencia , la Tecnología y la nueva “economía global”.
A diferencia de lo que ocurría hace 100 años, en la sociedad actual, resulta bastante fácil para las personas acceder en cada momento a la información que requieren (siempre que dispongan de las infraestructuras necesarias y tengan las adecuadas competencias digitales; en este caso: estrategias para la búsqueda, valoración y selección de información). No obstante, y también a diferencia de lo que ocurría antes, ahora la sociedad está sometida a vertiginosos cambios que plantean continuamente nuevas problemáticas, exigiendo a las personas múltiples competencias procedimentales (iniciativa, creatividad, uso de herramientas TIC, estrategias de resolución de problemas, trabajo en equipo, competencias en el manejo de la información (CMI), gestión del conocimiento, desarrollo sostenible, inteligencias múltiples...) para crear el conocimiento preciso que les permita afrontarlas con éxito.
Por ello, hoy en día el papel de los maestros no es tanto "enseñar" (explicar-examinar) unos conocimientos que tendrán una vigencia limitada y estarán siempre accesibles, como ayudar a los estudiantes "aprender a aprender" de manera autónoma en esta cultura del cambio y promover su desarrollo cognitivo y personal mediante actividades críticas y aplicativas que, aprovechando la inmensa información disponible y las potentes herramientas TIC, tengan en cuenta sus características (formación centrada en el estudiante) y les exijan un procesamiento activo e interdisciplinario de la información para que construyan su propio conocimiento y no se limiten a realizar una simple recepción pasiva, o memorización de la información.
Por otra parte, la diversidad de los estudiantes y de las situaciones educativas que pueden darse, aconsejan que los maestros aprovechen los múltiples recursos disponibles (que son muchos, especialmente si se utiliza el ciberespacio) para personalizar la acción docente, y trabajen en colaboración con otros colegas (superando el tradicional aislamiento, propiciado por la misma organización de las escuelas y la distribución del tiempo y del espacio) manteniendo una actitud investigadora en las aulas, compartiendo recursos (por ejemplo a través de las webs docentes), observando y reflexionando sobre la propia acción didáctica-pedagógica y buscando progresivamente mejoras en las actuaciones acordes con las circunstancias (investigación-acción).
Cada vez, se abre más paso su consideración como un mediador de los aprendizajes de los estudiantes, cuyos rasgos fundamentales son:
  • Es un experto que domina los contenidos, planifica (pero es flexible)...
  • Establece metas: perseverancia, hábitos de estudio, autoestima, metacognición; siendo su principal objetivo que el estudiante obtenga habilidades para lograr su plena autonomía.
  • Regula los aprendizajes, favorece y evalúa los progresos; su tarea principal es organizar el contexto en el que se ha de desarrollar el estudiante, facilitando su interacción con los materiales y el trabajo colaborativo.
  • Fomenta el logro de aprendizajes significativos, transferibles.
  • Fomenta la búsqueda de la novedad: curiosidad intelectual, originalidad. pensamiento convergente.
  • Potencia el sentimiento de capacidad: autoimagen, interés por alcanzar nuevas metas.
  • Enseña qué hacer, cómo, cuándo y por qué, ayuda a controlar la impulsividad
  • Comparte las experiencias de aprendizaje con los alumnos: discusión reflexiva, fomento de la empatía del grupo.
  • Atiende las diferencias individuales.
  • Desarrolla en los alumnos actitudes positivas: valores.
Bajo esta normativa, se pretende que los estudiantes se conviertan en protagonistas del proceso, responsables de crear su propio conocimiento; y los maestros, en cambio, se conviertan en asesores, facilitadotes o guías acompañantes o mediadores del proceso de enseñanza-aprendizaje.
Competencias básicas en TIC para maestros
Las TIC se han convertido en un eje transversal de toda acción formativa donde casi siempre tendrán una triple función: como instrumento facilitador los procesos de aprendizaje (fuente de información, canal de comunicación entre formadores y estudiantes, recurso didáctico...), como herramienta para el proceso de la información y como contenido implícito de aprendizaje (los estudiantes al utilizar las TIC aprenden sobre ellas, aumentando sus competencias en el manejo de las herramientas tecnológicas). Así, hoy en día los maestros necesitan utilizar las TIC en muchas de sus actividades profesionales habituales.
Podemos resumir así las competencias en TIC que deben tener los docentes:
  • Tener una actitud positiva hacia las TIC, instrumento de nuestra cultura que conviene saber utilizar y aplicar en muchas actividades domésticas y laborales.
  • Conocer los usos de las TIC en el ámbito educativo.
  • Conocer el uso de las TIC en el campo de su área de conocimiento.
  • Utilizar con destreza las TIC en sus actividades: editor de textos, correo electrónico, navegación de Internet.
  • Adquirir el hábito de planificar el currículum integrando las TIC (como medio instrumental en el marco de las actividades propias de su área de conocimiento, como medio didáctico, como mediador para el desarrollo cognitivo)
  • Proponer actividades formativas a los estudiantes que consideren el uso de TIC
  • Evaluar el uso de las TIC
Si bien la incorporación de las TIC en las escuelas es un importante primer paso para la estar preparados para actuar en el mundo interconectado, las tecnologías deben ser afianzadas adecuadamente para mejorar los procesos de aprendizaje. Los maestros deben ser entrenados para el uso eficiente de las TIC como herramientas que van a transformar todo el proceso de enseñanza-aprendizaje. Este entrenamiento es básico para la preparación. El currículo deben ser rediseñado para estimular el uso de las TIC en la solución de problemas, el aprendizaje en grupo y la investigación. A los estudiantes se les debe enseñar desde la edad más temprana posible a usar las TIC y a mejorar sus experiencias de aprendizaje. La integración total de las TIC dentro del proceso de aprendizaje es óptima y el aprendizaje basado en proyectos en colaboración puede crear una estrategia pedagógica sólida para una educación mejorada en TIC, basada en competencias en el manejo de la información y donde se tome el consideración el nuevo concepto de inteligencias múltiples.

viernes, 29 de octubre de 2010

hardware redes de ordenadores

Una red de computadoras, también llamada red de ordenadores o red informática, es un conjunto de equipos conectados por medio de cables, señales, ondas o cualquier otro método de transporte de datos, que compartan información (archivos), recursos (CD-ROM, impresoras, etc.), servicios (acceso a internet, e-mail, chat, juegos), etc.
Una red de comunicaciones es, también, un conjunto de medios técnicos que permiten la comunicación a distancia entre equipos autónomos (no jerárquica -master/slave-). Normalmente se trata de transmitir datos, audio y vídeo por ondas electromagnéticas a través de diversos medios (aire, vacío, cable de cobre, cable de fibra óptica, etc.).
Para simplificar la comunicación entre programas (aplicaciones) de distintos equipos, se definió el Modelo OSI(Open System Interconnection) por la ISO, el cual especifica 7 distintas capas de abstracción. Con ello, cada capa desarrolla una función específica con un alcance definido.

hardware internet

¿Qué hardware necesito para mi conexión a Internet?


¿Qué hardware necesito para mi conexión a Internet?

Por francisco | 22 de Febrero del 2010
Lo básico para cualquier red doméstica es un módem y un router. Un módem interpreta la información proveniente de su proveedor de servicios Internet (ISP) y le da a su red la información necesaria para mostrar las páginas web que el usuario solicita, descarga el vídeo que desea, etc. Si tienes una suscripción a Internet, es probable que tengas un módem (y tal vez también un router). Si no, mis recomendaciones son:

Motorola SURFboard SB5101 Cable Modem

Puedes utilizar este módem en casa, es muy fiable. No hay mucho que decir acerca de un módem: comprar uno de buena calidad que no falle en su primer año de uso. Si no dispones de un módem, te recomiendo usar este.
Motorola SURFboard SB5101 Cable Modem

Rca VH606 Digitaal cable coaxial RG6

Este es el mejor cable coaxial que puedes encontrar. Este cable se utiliza para conectar el módem a la toma de corriente del cable.
Rca VH606 Digitaal cable coaxial RG6

Linksys WRT54G2 Wireless-G Router de Banda Ancha

Puedes usar este router en tu casa y conectar cuatro o seis dispositivos inalámbricos. Yo te recomiendo este router si estás creando una red doméstica simple. El objetivo de un router es tomar la señal de entrada del módem y distribuir la señal para el dispositivo solicitante. Un router es esencial si se desea más de un dispositivo conectado a una red doméstica.
Linksys WRT54G2 Wireless-G Router de Banda Ancha

Categoría 5e (Cat5e) CMR Ethernet Patch Cable

Para conectar el router a tu módem de cable necesitarás un cable ethernet. Cat5e te proporcionará más ancho de banda para transmitir la señal de tu módem al router. Si estabas pensando instalar una red totalmente inalámbrica, este es el único cable que necesitarás ya que el router debe venir con otro cable, que puede ser utilizado para una configuración inicial del propio router conectado a tu ordenador.
hardware conexion internet | MilBits

trabajo sobre sistemas operativos

En este tema se describe aquella parte del "software" de un ordenador que transforma el "hardware" en algo útil: el sistema operativo. Para los fines de este capítulo es importante considerar un ordenador como un conjunto de recursos, de tipo físico, lógico o una mezcla de ambos. Tomados como un todo estos recursos proporcionan facilidades para el tratamiento y la entrada/salida de datos, así como para otros aspectos del funcionamiento de un ordenador.

Para comprender qué es un sistema operativo, es necesario entender cómo han sido desarrollados, en este apartado se esboza el desarrollo de los sistemas operativos desde los primeros hasta los actuales multiprogramados y de tiempo compartido. A medida que nos adentremos en las distintas etapas, veremos que los componentes de los sistemas operativos evolucionaron como soluciones naturales a los problemas de los primeros sistemas informáticos.

LOS PRIMEROS SISTEMAS

Inicialmente lo único que existía era el "hardware" del ordenador. Los primeros ordenadores eran máquinas muy grandes que ejecutaban su trabajo desde lo programado en una consola. El usuario escribía el programa y lo ejecutaba directamente desde la consola del operador, se debía de cargar manualmente en la memoria, bien fuera desde los conmutadores del panel frontal, desde cinta de papel o mediante tarjetas perforadas. Seguidamente se pulsaban los interruptores adecuados para cargar la dirección de inicio y para comenzar la ejecución del programa. Se supervisaba la ejecución por medio de los indicadores luminosos de la consola, si aparecía algún error se podía detener la ejecución, examinar el contenido de la memoria y de los registros y depurar el programa desde la consola. La salida generada se imprimía, o bien se almacenaba en cinta de papel o tarjetas perforadas para su procesado posterior.

Con el tiempo se perfeccionaron tanto el "hardware" como el "software", aparecieron los lectores de tarjeta, impresoras de línea y cintas magnéticas. Se diseñaron programas ensambladores, cargadores y enlazadores para facilitar la tarea de programación.

Más tarde aparecieron compiladores para los lenguajes FORTRAN y COBOL, haciendo más sencillo el manejo del ordenador por parte del usuario, pero más compleja su forma de operar. Por ejemplo para trabajar con un programa en FORTRAN, el programador había de cargar primero en la máquina el compilador FORTRAN, que estaba normalmente en una cinta magnética que se tenía que montar en un lector de cinta. El programa se leía a partir de tarjetas perforadas. A continuación de la compilación se generaba una salida en ensamblador que para ensamblarse requería la carga desde otra cinta del lenguaje ensamblador. A su vez el código generado era frecuente que se tuviera que enlazar con otro existente en librerías. Finalmente el programa en binario, quedaba listo para su ejecución y podía cargarse en memoria y si fuera necesario proceder a su depuración.

Como se ha indicado, la ejecución de un programa podía implicar previamente un tiempo de preparación considerable. Además si se producía un error en cualquier paso lo más probable era que habría que comenzar desde el principio.

MONITOR SIMPLE

Durante el tiempo de montaje de las cintas o mientras se operaba en la consola, la CPU del ordenador permanecía inactiva. Además los ordenadores eran muy caros, como ejemplo si se considera un IBM 7094, que costaba dos millones de dólares y su esperanza de vida era de cinco años, el coste del inmovilizadoxxx-large era de 45.66 dólares por hora, trabajando 24 horas al día y 365 días al año. Además se han de considerar los costes de funcionamiento por energía, refrigeración, papel, programadores, etc. Todo ello en una época en la que el salario mínimo era de un dólar por hora. Está claro que el tiempo de ordenador era muy valioso, y los propietarios deseaban sacarle el máximo rendimiento. Para rentabilizar su inversión debían maximizar la cuota de uso.

La solución fue doble, en primer lugar se contrataron operadores de ordenador profesionales, el programador entonces ya no tenía que tocar la máquina. Tan pronto como se terminaba un trabajo el operador ponía en marcha el siguiente y se eliminaban los tiempos de inactividad basándose en el sistema de reservas. Además al tener los operadores más experiencia en los procesos implicados, como por ejemplo el montaje de cintas, los tiempos se redujeron. Por supuesto que los operadores no podían depurar los problemas que surgieran en los programas, por lo que en caso necesario se volcaban a un sistema de almacenamiento y se entregaban al programador. El segundo ahorro de tiempo fue debido a la reducción del tiempo de preparación. Los trabajos con necesidades similares se incluyeron en lotes y se ejecutaban en le ordenador como un grupo. Por ejemplo si se recibían programas en diversos lenguajes como FORTRAN y COBOL, no se ejecutaban en el orden de recepción, sino que se procesaban primeramente todos los de un lenguaje y a continuación todos los del otro, con el consiguiente ahorro al cargar una sola vez cada compilador.

Pero aún había problemas, por ejemplo si un trabajo se detenía, los operadores tenían que darse cuenta observando la consola, determinar por qué se había detenido la ejecución y obrar en consecuencia según el problema planteado. Durante este proceso la CPU volvía a estar inactiva. Para solventar esta inactividad se introdujo el secuenciamiento automático de trabajos y con él se crearon los primeros y rudimentarios sistemas operativos. Fueron los programas residentes denominados monitores residentes, que secuenciaban automáticamente todos los programas que se ejecutaban en el ordenador. Para facilitar la secuenciación sin necesidad de la intervención de un operador se introdujeron las tarjetas de control, cuya idea es muy simple, además del programa o datos de un trabajo, se incluyen tarjetas especiales que son directivas para el monitor residente, indicándole qué programa tiene que ejecutar. Por ejemplo para indicar que un programa está en FORTRAN, se acostumbraba a poner una tarjeta de control con el texto $FTN, y para terminxxx-largear un trabajo se pondría otra con $END. Los sistemas así configurados son conocidos como batch o procesos por lotes.

PRESTACIONES

Los ordenadores, en especial los grandes, han sido máquinas muy caras, por lo que es lógico obtener las máximas prestaciones posibles. Los procesos por lotes mejoraron las prestaciones, sin embargo aunque el trabajo realizado por los operadores se redujo, había una parte del proceso que era muy lenta en comparación con la velocidad de la CPU, este problema era originado por los sistemas de entradas y salidas, siendo el caso más representativo el acceso a las cintas magnéticas, pues al ser dispositivos mecánicos la velocidad es muy baja comparada con los procesos electrónicos. Por ejemplo al trabajar para la ejecución de un programa, que como es lógico se cargaba desde cinta, se tenía la CPU inactiva el 93% del tiempo que duraba todo el proceso.

OPERACIONES "OFF-LINE"

Con el tiempo se crearon dispositivos de entrada/salida más rápidos, pero las velocidades de las CPU's crecieron aún a un ritmo mayor, por lo que el problema aumentó.

Una solución fue la de reemplazar las lentas lectoras de tarjetas e impresoras de líneas, por unidades de cinta magnética. La mayoría de los sistemas de los años 1950 y 1960 trabajaban por lotes, que leían de tarjetas y escribían en impresoras. Sin embargo en lugar de hacer que la CPU leyera directamente tarjetas, estas se copiaban previamente en una cinta magnética, y cuando estaba llena se llevaba al ordenador. Si un programa necesitaba una entrada de una tarjeta, se leía de la cinta, análogamente las salidas se llevaban a cintas y se imprimían posteriormente.

Se desarrollaron dispositivos especializados con salida o entrada directa a cinta magnética. Incluso se llegaron a crear pequeños ordenadores para realizar dichas funciones, que eran satélites del equipo principal.

Otra solución a la lentitud de los procesos de entrada/salida fue el denominado "buffering". Este sistema trata de mantener continuamente ocupados tanto a la CPU como a los dispositivos de E/S. La idea es muy sencilla, una vez que se han leído los datos y que la CPU va a operar con ellos, el dispositivo de entrada ejecuta inmediatamente la siguiente lectura. La CPU y el dispositivo de entrada permanece ocupado. Con suerte, cuando la CPU esté libre para el siguiente grupo de datos, el dispositivo de entrada habrá acabado de leerlos. La CPU podrá iniciar el proceso de los últimos datos leídos, mientras que el dispositivo de entrada iniciará la lectura de los datos que siguen. Para la salida se puede realizar un proceso análogo. (La palabra buffer, en castellano se puede traducir como tampón).

Al introducirse como sistemas de almacenamiento los basados en disco, el sistema off-line se fue eliminando progresivamente, y se introdujo el sistema conocido como "spooling" (Simultaneous Operation On-Line), que consiste en usar el disco como tampón, cuya principal ventaja es que solapa la entrada/salida de un proceso con la computación de otros.

MULTIPROGRAMACIÓN

El aspecto más importante de la planificación de trabajo es la capacidad de multiprogramación. Las operaciones descritas previamente para procesos de E/S tienen sus limitaciones, un usuario, no puede en general mantener la CPU o los dispositivos de E/S ocupados todo el tiempo. La multiprogramación es un método para incrementar el empleo de CPU, disponiendo en todo momento de algo que la CPU pueda ejecutar. La idea ea la siguiente, el sistema operativo toma uno de los trabajos de un grupo de ellos y empieza a ejecutarlo, eventualmente el trabajo tendrá que esperar por algún motivo, como por ejemplo para montar una cinta, en un sistema sin multiprogramación la CPU quedaría inactiva

Esta idea es bastante frecuente en otras situaciones, un abogado no tiene un solo cliente en un cierto momento, por el contrario, varios clientes pueden estar en situación de recibir atención al mismo tiempo. Mientras un caso espera para ir a juicio, el abogado puede trabajar en otro caso. Con un número suficiente de clientes un abogado nunca estará ocioso (Los abogados ociosos tienden a convertirse en políticos del PP, por lo que hay interés social en mantenerlos ocupados).

Los sistemas operativos multiprogramados son bastante sofisticados. Tener varios trabajos dispuestos para su ejecución, supone mantenerlos simultáneamente en memoria, y tener varios programas en memoria al mismo tiempo requiere una gestión de la memoria. Además, si hay varios trabajos dispuestos para ejecución, hay que tomar alguna decisión para elegir entre ellos, mediante una planificación adecuada de la CPU. La multiprogramación es el tema central de los sistemas operativos modernos.

Los aspectos fundamentales a considerar son: Gestión de la memoria
La memoria total del ordenador se ha de compartir de forma adecuada entre todos los programas y datos que en cierto momento tenga cada usuario del equipo.

Planificación de la CPU
Entre todas las tareas demandadas por los usuarios es posible establecer preferencias, lo cual implica que la CPU se planifique dando más tiempo a algunos trabajos o a los usuarios en función de unos niveles de privilegios establecidos.

Control de concurrencia.
El sistema operativo ha de gestionar adecuadamente todos los recursos del ordenador y ordenar la concurrencia de demandas de una forma adecuada. Por ejemplo si varios usuarios solicitan al mismo tiempo el acceso a un disco, se habrá de gestionar de forma correcta esta concurrencia para evitar bloqueos o situaciones impredecibles.

Protección
En un sistema donde acceden muchos usuarios es lógico que exista un sistema de protección que permita asegurar que a los trabajos de uno no pueden acceder los otros usuarios, ya sea por motivos de seguridad (por ejemplo para evitar pérdidas de información) o de confidencialidad.

Abrazo mortal
Es un problema que no se plantea solamente en un entorno de sistemas operativos, sino que puede aparecer en la vida real. Por ejemplo si dos personas han de cruzar un río, saltando entre piedras puestas en él, y con la condición de apoyar un solo pie, se llega al abrazo mortal cuando dos personas empiezan a cruzar desde orillas opuestas y se encuentran en el medio, llega este momento cuando los dos intentan pisar la misma piedra. En general esta situación se produce cuando un sistema consta de un número finito de recursos para distribuir entre un número dado de procesos en competencia.
TIEMPO COMPARTIDO

Cuando se desarrollaron los sistemas por lotes estos se definían por la agrupación de trabajos similares, que sólo permitían el acceso secuencial a la información. Al disponerse de discos, se hizo posible el acceso inmediato a todas las aplicaciones.

Un sistema por lotes tiene algunos inconvenientes, para el usuario, el principal es que los usuarios no pueden interactuar con sus trabajos mientras se están ejecutando, lo cual crea problemas caso de necesitar depurar un programa. Como consecuencia posteriormente a estos sistemas aparecieron los conocidos como interactivos o "hands-on", en los que el usuario da y recibe las instrucciones de forma inmediata. En consecuencia se puede experimentar fácilmente con cualquier programa.

Un sistema operativo de tiempo compartido utiliza la planificación de la CPU y la multiprogramación para dotar a cada usuario de una pequeña parte del ordenador compartido. Un sistema operativo en tiempo compartido permite que muchos usuarios compartan el ordenador. Como cada acción o comando suele ser breve, basta con un tiempo de CPU corto para cada usuario. Dado que el sistema cambia rápidamente entre usuarios, estos tienen la impresión de que cada uno de ellos dispone de su propio ordenador, cuando realmente un solo ordenador es compartido entre muchos usuarios. Esta idea fue expuesta en 1960, pero al ser difíciles de construir estos sistemas, no se difundieron hasta principios de los 70.

TIEMPO REAL

Otro tipo de sistemas son los conocidos como en tiempo real, que se utilizan frecuentemente como dispositivos de control en aplicaciones especializadas. Por ejemplo unos sensores proporcionan datos al ordenador, que los analiza y en consecuencia ajusta unos controles para modificar las entradas al sensor. Ejemplos de este tipo son en aplicaciones científicas, médicas e industriales.

Un caso típico de equipo que funciona bajo tiempo real, es un "controlador miniatura", que consiste en un pequeño ordenador, diseñado en una placa de circuito impreso, que se embebe en una máquina o cualquier otro dispositivo, con finalidad de control. Estos dispositivos se usan en maquinaria de fabricación, comprobación de equipamientos, telecomunicaciones, sistemas de control y seguridad, ventilación y aire acondicionado, monitorización del medio ambiente e investigación científica. Algunos ejemplos reales se citan seguidamente:
  • Hornos
  • Control de señales de tráfico
  • Control de satélites
  • Equipos musicales
  • Verificación de componentes de automoción
  • Control de riego agrícola
Comparado con un PC, un ordenador de este tipo es menor, gasta menos energía y disipa menos calor. La propiedad más importante es que pueden trabajar en ambientes hostiles.

7.2 Clasificación

El sistema operativo es parte fundamental de cualquier ordenador. A grandes rasgos un sistema informático se puede dividir en:

  • Hardware
  • Sistema operativo o de explotación
  • Programas de aplicación
  • Usuarios

El hardware facilita los recursos básicos de computación, mientras que los programas de aplicación definen cómo hay que utilizar estos recursos para resolver los problemas de los usuarios. Puede haber muchos usuarios diferentes tratando de resolver problemas distintos. Consecuentemente es habitual la existencia de distintos programas de aplicación. El sistema operativo controla y coordina el uso del hardware por parte de los distintos programas de aplicación de los diversos usuarios.



Un sistema operativo es similar a un gobierno. Los recursos básicos de un sistema informáticos son el hardware, el software y los datos. El sistema operativo facilita los medios para el uso adecuado de estos recursos durante la operación del sistema informático, al igual que un gobierno, el sistema operativo no realiza por sí mismo una función útil, simplemente crea el entorno en el que otros programas puedan hacer un trabajo..

También se puede considerar un sistema operativo como un asignador de recursos. Un sistema informático tiene muchos recursos susceptibles de ser requeridos para resolver problemas. El sistema operativo actúa como gestor asignando los recursos a programas y usuarios específicos, según las necesidades, para que realicen sus tareas.

Otra concepción ligeramente diferente de un sistema operativo se basa en la necesidad de controlar distintos dispositivos de entrada/salida y los programas de usuario. Un sistema operativo es un programa de control.

En general no existe una definición completamente adecuada de un sistema operativo. Existen por que son una vía razonable para resolver el problema de crear un sistema informático manejable. En general es más fácil definir los sistemas operativos por lo que hacen mas que por lo que son.

Los sistemas operativos se pueden clasificar en cuatro grupos:

Por lotes (batch)
Son los primitivos, de la época en que se manejaban tarjetas perforadas.

Interactivos monousuarios
Permiten que el que esté usando el equipo pueda interaccionar en cualquier momento con el proceso que esté ejecutando. Sólo permiten que trabaje un usuario en un momento dado.

Tiempo compartido
Permiten el acceso al ordenador de un número variable de usuarios de forma concurrente, y dada la gran velocidad del ordenador, es como si estuviera trabajando simultáneamente para todos ellos.

Tiempo real
Se utilizan ampliamente en aplicaciones industriales y de control. El sistema responde de forma inmediata a entradas del exterior.

7.3 Sistemas operativos habituales

En el inicio de la informática cada fabricante tenía sus propios sistemas operativos que no eran compatibles con los de otros, incluso dentro de un mismo fabricante podían coexistir varios, caso típico de IBM. Estos se conocen como sistemas propietarios.

La tendencia actual es hacia los llamados sistemas abiertos, lo cual indica que estos sistemas operativos trabajan sobre una gran variedad de máquinas con independencia del fabricante del equipo. La gran ventaja es el ahorro a todos los niveles, pues por ejemplo una empresa con ordenadores de distintos fabricantes puede tener totalmente uniformado todo su software.

A continuación se comentan los sistemas operativos más difundidos.

MS-DOS

Fue un sistema operativo adaptado por Microsoft para IBM (PC-DOS), y en concreto para el modelo PC, aunque se popularizó rápidamente siendo el más usado a nivel personal. Fue desarrollado en el año 1979 por Tim Paterson que trabajaba en Seatle Computer Products, y adquirido por Microsoft Corporation.

El espíritu del MS-DOS fue el de proporcionar una base flexible para el software de un microordenador. Tiene un núcleo con un conjunto de comandos residentes y una capa con comandos transitorios que se cargan en memoria cuando se necesita su ejecución para a continuación abandonarla.

Dado que el entorno es poco amigable se crearon añadidos que proporcionan un ambiente de trabajo más fácil, el que ha tenido más éxito es WINDOWS (no estrictamente por razones de calidad), que ofrece un entorno gráfico de ventanas y sencillez de manejo mediante un ratón.

La principal desventaja de MS-DOS es que es monousuario y monotarea, es decir que sólo puede trabajar un usuario (no admite terminales) y que a su vez este sólo puede ejecutar un programa al mismo tiempo, aunque este último problema se resuelve con el entorno Windows. Actualmente ha quedado obsoleto, aunque se comercializa en algunos países de Asia, pues a partir del Windows XP ya son en sí sistemas operativos completos (aunque siguen siendo muy malos) y no necesitan para funcionar el MS-DOS.

UNIX

Fue diseñado en los laboratorios Bell de la empresa AT&T, para su empleo en ordenadores marca Digital. Dadas sus características pronto se difundió ampliamente en ambientes universitarios, por lo que hasta hace poco tiempo se ha considerado como un sistema operativo orientado hacia ambientes de investigación y no en aplicaciones de gestión. Actualmente está muy difundido en todo tipo de equipos aunque se ha perdido la estandarización habiendo muchas versiones diferentes poco compatibles entre si. Otra versión es el Solaris de la empresa SUN.

Una ventaja sobre otros sistemas operativos es que este sistema es multiusuario, por lo que un equipo admite gran cantidad de terminales trabajando simultáneamente, además de la robustez y seguridad.

LINUX

Linux es básicamente un sistema operativo compatible con UNIX, que opera principalmente bajo equipos compatibles con el estándar del mercado y servidores. Su ventaja principal es que su costo es prácticamente nulo, .

El núcleo fue escrito por Linus Torvalds (1969-), como un sistema operativo abierto y estandar, siendo desarrollado posteriormente por muchos programadores, de forma independiente. El código fuente, gestores de dispositivos y utilidades están disponibles gratuitamente

Actualmente supone una gran competencia para Windows, más que para UNIX, de hecho en el futuro puede desbancarlo, no sólo por ser gratis y disponer de los fuentes, sino por superioridad y más seguridad.

Actualmente diversas administraciones públicas, como por ejemplo la Junta de Andalucía y la de Extremadura, en España, y otras a nivel mundial lo están considerando como estándar, lo cual implicará una amplia utilización en el futuro.

Un grupo de profesores de la Universidad de Murcia, está desarrollando una versión para la enseñanza, denominada CALDUM.

Como ejemplo de la gran difusión del Linux, se tiene el caso de IBM que junto con Citizen crearon un reloj con este sistema operativo y masa inferior a 250 gramos. Comercialmente se conoce como WatchPad, e incluye tecnología de voz y conectividad por infrarrojos. Para interactuar con él es mediante una pantalla táctil de cristal líquido QVGA. También se ha incoprporado a los teléfonos móviles.

A partir del desarrollo inicial de Torvalds se han difundido distintas distribuciones, la que sigue siendo auténticamente libre es Debian, que ha dado lugar al tan conocido Ubuntu. Otras han acabado siendo distribuidas por empresas, aunque sigue siendo libre y descargable gratuitamente de sus páginas web, las ma? conocidas son: RedHat, SuseLinux y Mandriva. Por lo que respecta a usos en la industria, se ha creado "Open Source Automation Development Lab (OSADL)", cuya finalidad es el uso de Linux en los procesos de automatización.


LINUX, UNA REVOLUCIÓN IMPREVISTA

Este sistema operativo, que nació en 1991, se enfrenta a Windows con una filosofía de código abierto y uso libre

Cuando Linus Torvalds, el estudiante finlandés que creó Linux publicó su autobiografía la tituló Just for fun. Algo así como Sólo como diversión. Y el subtítulo todavía era más claro: La historia de un revolucionario accidental. Es decir, la contundente emergencia de Linux en el mercado de los sistemas operativos, con una filosofía que contradice a la de Microsoft y le planta cara, no estaba en los planes de aquel chico que lanzó en 1991 lo que sería Linux, un sistema operativo de código abierto, que permite conocer sus tripas técnicas y modificarlo.

Doce años más tarde, sin embargo, grandes empresas como IBM, HP o Oracle anuncian productos con Linux y el diario Wall Street Journal lo incluye como una de las diez tecnologías que "usted debe conocer". Como teorizan en el diario, "Linux podía haberse quedado como una herramienta para rebeldes del software", pero es una "revolución del código abierto que sacude el mercado".

En 1991, Torvalds; empieza en los foros de Internet a dar noticias sobre lo que está haciendo y pide ayuda-"Hola ( ... ). Estoy trabajando en un libre sistema operativo (un hobby, que no será grande y profesional como gnu)". Miles de programadores participaron y participan sin cobrar en el desarrollo de este programa.

Unix reinaba en la informática corporativa. Apple tenía una robusta herramienta, pero sólo trabajaba sobre máquinas de su marea. Las escuelas de negocios todavía discuten hoy el impacto que tuvo para Apple retener su sistema operativo vinculándolo a su máquina en un binomio cerrado.

Apple se ha quedado con una modesta cuota de mercado de usuarios, eso sí, entusiastas. IBM abrió su arquitectura a otros fabricantes de ordenadores y desató su propia competencia. Mientras, Bill Gates había comprado por 50.000 dóla-res el esqueleto de un sistema operativo, DOS, y reinaba en el universo del PC personal. Menos amiga-ble que el sistema operativo de Apple, tenía la ventaja de que funcionaba sobre ordenadores compatibles con el diseño de IBM. Luego vendría Windows.

Cuando Torvalds escribe que está trabajando sobre un sistema operativo libre (free) se está apuntando a un movimiento lanzado en 1983 por Richard Stallman conocido como Proyecto GNU. La idea era que el software debia ser abierto y gratuito licencia GPL). Esta licencia permite usar el programa sin restricciones, redistribuirlo sin limitaciones, modificarlo y distribuir las modificaciones. Con Microsoft o cualquier programa bajo licencia propietaria, los clientes adquieren la licencia al usar un programa, pero tienen vetado escudriñar su panza, la arquitectura de su código, y, obviamente su redistribución. Linux sigue bajo la licencia GPL con que nació.

No obstante, sí se pueden añadir ejecutables propietarios, con código cerrado, que no supongan cambiar Linux sino trabajar sobre él. Es decir, cuando una empresa como Oracle ofrece sus productos que trabajan sobre Linux Oracle sigue siendo propietaria de estos productos porque no alteran Linux sino que lo usan de plataforma.

En 1995 se fundan compañías, como Red Hat, que comercian con Linux. La pregunta irremediable es: ¿cómo alguien piensa hacer negocio con un programa con licencia gratuita? Estas empresas pueden comercializar la edición de] programa en un CD con manual de instrucciones o la instalación y mantenimiento del mismo a un cliente. Red Hat, por ejemplo, obtiene ingresos también con cursos de Linux que certifican al alumno como conocedor del sistema. Cada vez más empresas desarrollan sobre Linux ejecutables de los que son propietarios.

Ahora, Linux es una palabra que preocupa a Microsoft porque gana adeptos más allá de comunidades ilustradas. Sus mejores propagandistas son las corporaciones que lo adoptan y las empresas informáticas que lo ofertan. Tras abrirse a Linux el mundo empresarial, ahora empieza su penetración en el mundo doméstico, temeroso de su esoterismo. Un obstáculo era su fama de antipático en el manejo. ¿Un juguete para chicos listos? Linux inicialmente obligaba a dar órdenes escritas a la máquina. Posteriormente aparecieron interfaces más convivenciales para usuarios acostumbrados a la rutina de las ventanas (windows).

Otro factor que ayuda a esta popularización son las políticas de algunas administraciones en favor del software libre. Desde Brasil a Alemania, pasando por el Gobierno extremeño o el PP valenciano, se han pronunciado en favor del software libre. Argumentos: las administraciones no tienen por qué pagar para conseguir algo que es gratuito y, no es lógico usar una herramienta tan crítica cuvo secreto está en otras manos. Microsoft, que había desdeñado la emergencia de Linux reacciona. En un informe a la autoridad bursátil norteamericana de diciembre de 2002, la propia compañía escribe: la popularización del movimiento del código abierto supone "una significativa amenaza al modelo de negocio de la compañía, incluyen~ do los esfuerzos de sus defensores para convencer a los gobiernos que opten por el código abierto". Microsoft advierte que si esta opción gana adeptos, Ias ventas de la compañía pueden bajar, tendrá que reducir los precios que carga sobre sus productos y, los ingresos y márgenes pueden declinar".

Microsoft ha replicado con su política de código compartido por la que, a las agencias de seguridad de determinados países y tras suscribir un acuerdo bilateral, les abre el código de Windows. Microsoft predica que los gobiernos han de ser neutrales frente al dilema de licencia propietaria o libre y tomar sus decisiones sólo en función del rendimiento de los programas.

Microsoft se apoya en una consultoría externa para argumentar que Linux es gratis, de entrada, pero resulta más caro a la larga por costes de mantenimiento e ineficiencias. Lo cierto es que aquella inocente diversión de un estudiante preocupa a una compañía que ha instalado Windows en el 95% de los PC.

Todo el artículo en El País - Negocios...




Software libre La industria Linux responde a Microsoft

Marimar Jiménez y Javier F. Magariño (Cinco Dias, 17 mayo 2003)

Medio centenar de empresas españolas viven del software libre, con unas ventas medias de 450000 euros, no somos un puñado de voluntarios sin sueldo. Y si no que se lo pregunten a las personas que trabajan desarrollando software libre en HP, IBM, Sun Microsystems, Wall Street o en universidades de prestigio de todo el mundo. Todos están pagados, espeta Juan Tomás García, presidente de la asociación española de usuarios y desarrolladores de software libre Hispalinux. Esta declaración defensiva se produce unos días después de que Steve Ballmer, presidente de Microsoft, visitara España con motivo del lanzamiento en nuestro país de Windows Server 2003. La mano derecha de Bill Gates advirtió ante un foro repleto de directivos del error que supone introducir aplicaciones de código abierto en las empresas: 'Al ser un grupo de desarrolladores que trabaja gratis, su actividad se convierte en algo muy impredecible'. Y añadió que el avance de Linux 'no genera ni puestos de trabajo ni inversiones en I+D'.

Estas duras críticas chocan, en cambio, con la preocupación que parece vivirse en el seno de la compañía de Redmond. Hace tres días, el diario International Herald Tribune publicaba el contenido de un correo interno del director ejecutivo de ventas de Microsoft, Orlando Ayala, en el que apostaba por una guerra de precios, al autorizar a sus directivos a hacer fuertes recortes en los mismos: 'Bajo ninguna circunstancia debemos perder frente a Linux', arengaba en el e-mail Tras la conocida decisión de divulgar el código fuente de Windows y donar importantes sumas de dinero a la comunidad educativa, la nueva política de Microsoft parece incluir importantes descuentos, que estarían respaldados por un fondo especial de nueva creación.

'Los nervios de Ballmer no son para nosotros sino la mejor de las señales, la que nos indica que vamos por el buen camino, que estamos consiguiendo resultados, que estamos venciendo', asegura Javier Cuchí, representante de Hispalinux. Cuando este experto habla en plural se refiere a todo un colectivo de desarrolladores y de empresas cuyo negocio gira en parte o totalmente alrededor del software libre. 'No es cierto que estas herramientas no generen una industria. Otra cosa es que aún sea incipiente', dice Jesús González Barahona, profesor del área de telemática de la Universidad Juan Carlos I. Y es que no es lo mismo software libre que gratuito.

En España se calcula que hay en torno a medio centenar de empresas ligadas al desarrollo, implantación y mantenimiento del software libre. Generalmente son pequeñas: sus plantillas van de los 4 a los 50 empleados y sus ventas oscilan entre los 300000 y 600000 euros, aunque hay alguna excepción. La compañía Ándago, fundada en enero de 1996 y con 45 trabajadores, tuvo unos ingresos cercanos a los tres millones de euros en 2002. 'Aún no hemos alcanzado los beneficios, pero la previsión es lograrlos a lo largo de este ejercicio', cuenta su presidente, José María Olmo. El pasado año, Ándago sufrió la crisis económica, ya que sus principales clientes eran operadores de telecomunicaciones que frenaron en seco sus inversiones tecnológicas. Hoy dirige sus servicios y consultoría hacia otros sectores como la banca y la administración.

El empuje de pymes como Ándago, Disoft, Igalia, Internet Web Serveis o Yaco Ingeniería, por citar algunos ejemplos, empieza a consolidar una red de entidades que fomenta el software no propietario en España. De hecho, a la vuelta de un mes, una veintena de ellas presentará la Asociación de Empresas de Software Libre (Aesli). 'El objetivo es fomentar la idea de que detrás de Linux hay iniciativas empresariales', comenta una de las promotoras, Alicia Zurita. Ella, junto a David Aycart, fundó Esware en 1999. La compañía, con 24 empleados, enfoca su actividad hacia la venta de software, formación y consultoría. 'La situación que describe Ballmer es de hace seis años. Resulta absurdo que desprecie así una tecnología aceptada por toda la industria', defiende Aycart.

En España, algunas Administraciones públicas como la extremeña, la andaluza, la de Valencia o Aragón han apostado abiertamente por esta corriente, con el convencimiento de que les permitirá crear una industria local de aplicaciones informáticas. ¿Ocurrirá realmente? 'Lo cierto es que, de otra forma, no se generaría', apunta Barahona.


Roberto Di Cosmo es un investigador italiano en ciencias de la computación, que se encuentra radicado en Francia y es docente de la Universidad Paris 7.

Además de su extensa labor científica, es un entusiasta promotor del Software Libre y luchador en contra de las patentes de software (y como si esto fuera poco, ¡es un tipo muy divertido también !).

Su artículo "Trampa en el Cyberespacio" es un pequeño ensayo en donde analiza la situación actual de la informática en lo que se refiere al software propietario. Es un excelente documento (muy legible, además) para entender los peligros que entrañan los manejos de algunas empresas de software (con Microsoft como el caso más notable).

Roberto tiene gran cantidad de material en su sitio web (http://www.dicosmo.org) y además lidera un proyecto de desarrollo de DemoLinux, una distribución de Linux que solo requiere de un CD booteable para funcionar (http://www.demolinux.org).

Trampa en el Cyberespacio
 Versión HTML(online). Tamaño: 72k


Bibliografía (disponible en la Biblioteca Universitaria):

- Lucas, H y otros. Sistema operativo UNIX. Paraninfo S.A. Madrid 1986
- Milenkovic, Mila. Sistemas Operativos. Concepto y diseño. Mc Graw Hill. Madrid 1998
- Stallinger, William. Sistemas operativos 4ª ed. Prentice Hall, Madrid 2001
- Tanembaun Andrew S. Sistemas operativos modernos. Prentice Hall, México 1992
- Programación en Linux con ejemplos. Prentice Hall. Buenos Aires 2000

Enlaces de interés en internet:

Debian. Linux
Fundación Vía Libre. Argentina
Sourceforge.net<
Univ. Pontificia de Salamanca. Sistemas operativos
Sistemas operativos. Apuntes Introducción a la Informática. Universidad de Murcia. Rafael Barzanallana.
http://www.um.es/docencia/barzana/IATS/Iats06.html

Trece sistemas operativos NO Unix para saber más.
http://federicosayd.wordpress.com/2008/05/22/trece-sistemas-operativos-no-unix-para-saber-mas/

Recursos Linux.
http://www.recursoslinux.com/

Sistema operativo UNIX. Características generales.
http://www.um.es/docencia/barzana/DIVULGACION/INFORMATICA/Unix01.html

Sistema operativo UNIX. Órdenes básicas.
http://www.um.es/docencia/barzana/DIVULGACION/INFORMATICA/Unix02.html


escritorio windows y sus partes

diferencia escritorio windows y linux

Muchos se preguntan si es posible ejecutar Linux y Windows al mismo tiempo sin necesidad de una maquina virtual. La solución está provista por andLinux, una distrubución completa de Linux (compuesta del entorno KDE ó XFCE) que se ejecuta de forma nativa en sistemas operativos Windows sin necesidad de instalar alguna maquina virtual. Esta distribución está disponible de forma gratuita para Windows 2000, 2003, XP y Vista.
andLinux esta basado en Cooperative Linux (llamado también CoLinux) que representa un puerto del kernel de Linux el cual permite a los usuarios ejecutar Linux al mismo tiempo que Windows u otros sistemas en la misma PC. Así no se necesita de software de Virtualización. Y debido a la "fusión" de Windows y el kernel de Linux, ésta se ejecuta mas rápido comparado con una máquina virtual.
Bastará con descargar y ejecutar andLinux, un instalador automático nos guiará a través del proceso de configuración donde especificaremos la cantidad de memoria RAM que se usará, activar ó desactivar sonidos, modo como Linux se ejecutará: como servicio ó manualmente, tipo de sistema de archivo y más. Después de la instalación reiniciamos el equipo para reflejar los cambios.
He aquí una  pantallazo que muestra la coexistencia de Linux y aplicaciones Windows en el mismo escritorio-ordenador.

miércoles, 13 de octubre de 2010

conexiones a internet

Tipos de conexión a Internet

redes e internet

Internet

Internet
Internet map 1024.jpg
Mapa parcial de Internet basado en la información obtenida del sitio opte.org en 2005. Cada línea entre dos nodos representa el enlace entre dos direcciones IP y su longitud es proporcional al retardo entre estos.
Idiomas más empleadosInglés (29,4%), chino (18,9%), castellano (8,5%), japonés (6,4%), francés (4,7%), alemán (4,2%), árabe (4,1%), portugués (4,0%)
Usuarios por
continente (2005)
Asia (40%), Europa (26%), América del Norte (17%)
Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.
El género de la palabra Internet es ambiguo, según el Diccionario de la Real Academia Española.

Tipos de discos duros y sus particiones

1. Función de un disco duro
Un disco duro es un dispositivo que permite el almacenamiento y recuperación de grandes cantidades de información. Los discos duros forman el principal elemento de la memoria secundaria de un ordenador, llamada así en oposición a la memoria principal o memoria RAM (Random Access Memory, memoria de acceso aleatorio).
Tanto los discos duros como la memoria principal son memorias de trabajo (varían su contenido en una sesión con el ordenador). Sin embargo, presentan importantes diferencias: la memoria principal es volátil (su contenido se borra al apagar el ordenador), muy rápida (ya que se trata de componentes electrónicos) pero de capacidad reducida. La memoria secundaria, en cambio, es no volátil, menos rápida (componentes mecánicos) y de gran capacidad. La memoria principal contiene los datos utilizados en cada momento por el ordenador pero debe recurrir a la memoria secundaria cuando necesite recuperar nuevos datos o almacenar de forma permanente los que hayan variado.
 2. Estructura lógica de un disco duro
La estructura lógica de un disco duro está formada por:
  • El sector de arranque (Master Boot Record)
  • Espacio particionado
  • Espacio sin particionar
El sector de arranque es el primer sector de todo disco duro (cabeza 0, cilindro 0, sector 1). En él se almacena la tabla de particiones y un pequeño programa master de inicialización, llamado también Master Boot. Este programa es el encargado de leer la tabla de particiones y ceder el control al sector de arranque de la partición activa. Si no existiese partición activa, mostraría un mensaje de error.
El espacio particionado es el espacio del disco que ha sido asignado a alguna partición. El espacio no particionado, es espacio no accesible del disco ya que todavía no ha sido asignado a ninguna partición. A continuación se muestra un ejemplo de un disco duro con espacio particionado (2 particiones primarias y 2 lógicas) y espacio todavía sin particionar.
El caso más sencillo consiste en un sector de arranque que contenga una tabla de particiones con una sola partición, y que esta partición ocupe la totalidad del espacio restante del disco. En este caso, no existiría espacio sin particionar.
 
 
3. Las particiones
Cada disco duro constituye una unidad física distinta. Sin embargo, los sistemas operativos no trabajan con unidades físicas directamente sino con unidades lógicas. Dentro de una misma unidad física de disco duro puede haber varias unidades lógicas. Cada una de estas unidades lógicas constituye una partición del disco duro. Esto quiere decir que podemos dividir un disco duro en, por ejemplo, dos particiones (dos unidades lógicas dentro de una misma unidad física) y trabajar de la misma manera que si tuviésemos dos discos duros (una unidad lógica para cada unidad física).
Particiones y directorios.— Ambas estructuras permiten organizar datos dentro de un disco duro. Sin embargo, presentan importantes diferencias: 1ª) Las particiones son divisiones de tamaño fijo del disco duro; los directorios son divisiones de tamaño variable de la partición; 2ª) Las particiones ocupan un grupo de cilindros contiguos del disco duro (mayor seguridad); los directorios suelen tener su información desperdigada por toda la partición; 3ª) Cada partición del disco duro puede tener un sistema de archivos (sistema operativo) distinto; todos los directorios de la partición tienen el sistema de archivos de la partición.
Como mínimo, es necesario crear una partición para cada disco duro. Esta partición puede contener la totalidad del espacio del disco duro o sólo una parte. Las razones que nos pueden llevar a crear más de una partición por disco se suelen reducir a tres.
  1. Razones organizativas. Considérese el caso de un ordenador que es compartido por dos usuarios y, con objeto de lograr una mejor organización y seguridad de sus datos deciden utilizar particiones separadas.
  2. Instalación de más de un sistema operativo. Debido a que cada sistema operativo requiere (como norma general) una partición propia para trabajar, si queremos instalar dos sistemas operativos a la vez en el mismo disco duro (por ejemplo, Windows 98 y Linux), será necesario particionar el disco.
  3. Razones de eficiencia. Por ejemplo, suele ser preferible tener varias particiones FAT pequeñas antes que una gran partición FAT. Esto es debido a que cuanto mayor es el tamaño de una partición, mayor es el tamaño del grupo (cluster) y, por consiguiente, se desaprovecha más espacio de la partición. Más adelante, explicaremos esto con mayor detalle.
Las particiones pueden ser de dos tipos: primarias o lógicas. Las particiones lógicas se definen dentro de una partición primaria especial denominada partición extendida.
En un disco duro sólo pueden existir 4 particiones primarias (incluida la partición extendida, si existe). Las particiones existentes deben inscribirse en una tabla de particiones de 4 entradas situada en el primer sector de todo disco duro. De estas 4 entradas de la tabla puede que no esté utilizada ninguna (disco duro sin particionar, tal y como viene de fábrica) o que estén utilizadas una, dos, tres o las cuatro entradas. En cualquiera de estos últimos casos (incluso cuando sólo hay una partición), es necesario que en la tabla de particiones figure una de ellas como partición activa. La partición activa es aquella a la que el programa de inicialización (Master Boot) cede el control al arrancar. El sistema operativo de la partición activa será el que se cargue al arrancar desde el disco duro. Más adelante veremos distintas formas de elegir el sistema operativo que queremos arrancar, en caso de tener varios instalados, sin variar la partición activa en cada momento.
De todo lo anterior se pueden deducir varias conclusiones: Para que un disco duro sea utilizable debe tener al menos una partición primaria. Además para que un disco duro sea arrancable debe tener activada una de las particiones y un sistema operativo instalado en ella. Más adelante, se explicará en detalle la secuencia de arranque de un ordenador. Esto quiere decir que el proceso de instalación de un sistema operativo en un ordenador consta de la creación de su partición correspondiente, instalación del sistema operativo (formateo de la partición y copia de archivos) y activación de la misma. De todas maneras, es usual que este proceso esté guiado por la propia instalación. Un disco duro no arrancará si no se ha definido una partición activa o si, habiéndose definido, la partición no es arrancable (no contiene un sistema operativo).
Hemos visto antes que no es posible crear más de cuatro particiones primarias. Este límite, ciertamente pequeño, se logra subsanar mediante la creación de una partición extendida (como máximo una). Esta partición ocupa, al igual que el resto de las particiones primarias, una de las cuatro entradas posibles de la tabla de particiones. Dentro de una partición extendida se pueden definir particiones lógicas sin límite. El espacio de la partición extendida puede estar ocupado en su totalidad por particiones lógicas o bien, tener espacio libre sin particionar.
Veamos el mecanismo que se utiliza para crear la lista de particiones lógicas. En la tabla de particiones del Master Boot Record debe existir una entrada con una partición extendida (la cual no tiene sentido activar). Esta entrada apunta a una nueva tabla de particiones similar a la ya estudiada, de la que sólo se utilizan sus dos primeras entradas. La primera entrada corresponde a la primera partición lógica; la segunda, apuntará a una nueva tabla de particiones. Esta nueva tabla contendrá en su primera entrada la segunda partición lógica y en su segunda, una nueva referencia a otra tabla. De esta manera, se va creando una cadena de tablas de particiones hasta llegar a la última, identificada por tener su segunda entrada en blanco.
 
Particiones primarias y particiones lógicas
Ambos tipos de particiones generan las correspondientes unidades lógicas del ordenador. Sin embargo, hay una diferencia importante: sólo las particiones primarias se pueden activar. Además, algunos sistemas operativos no pueden acceder a particiones primarias distintas a la suya.
Lo anterior nos da una idea de qué tipo de partición utilizar para cada necesidad. Los sistemas operativos deben instalarse en particiones primarias, ya que de otra manera no podrían arrancar. El resto de particiones que no contengan un sistema operativo, es más conveniente crearlas como particiones lógicas. Por dos razones: primera, no se malgastan entradas de la tabla de particiones del disco duro y, segunda, se evitan problemas para acceder a estos datos desde los sistemas operativos instalados. Las particiones lógicas son los lugares ideales para contener las unidades que deben ser visibles desde todos los sistemas operativos.
Algunos sistemas operativos presumen de poder ser instalados en particiones lógicas (Windows NT), sin embargo, esto no es del todo cierto: necesitan instalar un pequeño programa en una partición primaria que sea capaz de cederles el control.
 
Estructura lógica de las particiones
Dependiendo del sistema de archivos utilizado en cada partición, su estructura lógica será distinta. En los casos de MS-DOS y Windows 95, está formada por sector de arranque, FAT, copia de la FAT, directorio raíz y área de datos. De todas formas, el sector de arranque es un elemento común a todos los tipos de particiones.
Todas las particiones tienen un sector de arranque (el primero de la partición) con información relativa a la partición. Si la partición tiene instalado un sistema operativo, este sector se encargará de arrancarlo. Si no hubiese ningún sistema operativo (como es el caso de una partición para datos) y se intentara arrancar, mostraría un mensaje de error.
 

lunes, 4 de octubre de 2010