jueves, 11 de junio de 2009
Evolución informática

Resumen
A lo largo de la historia, incluso desde tiempos en los que no existía la electricidad, el hombre siempre ha querido simplificar su modo de vida, por esta razón los grandes pensadores de todos los tiempos, han dedicado gran parte de su vida a desarrollar teorías matemáticas para construir máquinas que simplifiquen las tareas de la vida diaria.
El verdadero auge de estas ideas comienza en la época de la revolución industrial con la aparición de la máquina de tejer, y muchas otras maquinarias. Luego se comienza a necesitar realizar cálculos muy grandes, que eran difíciles de realizar por el hombre, ya que tomaba años terminar un cálculo. Entonces comienzan a crear las computadoras, con ellas se realizaban las tareas matemáticas de manera más rápida y segura.
Sin embargo no era suficiente, por naturaleza se tiende a buscar mas rapidez, y es cuando comienza la técnica de "miniaturización" que cada día se perfecciona mas; con este método se logra hacer procesadores mas rápidos por circuitos mas pequeños, de igual manera se logra tener capacidades de almacenamiento abismales en espacios físicos muy pequeños, la ciencia de la computación se encuentra en su mejor momento.
A lo largo de la historia, incluso desde tiempos en los que no existía la electricidad, el hombre siempre ha querido simplificar su modo de vida, por esta razón los grandes pensadores de todos los tiempos, han dedicado gran parte de su vida a desarrollar teorías matemáticas para construir máquinas que simplifiquen las tareas de la vida diaria.
El verdadero auge de estas ideas comienza en la época de la revolución industrial con la aparición de la máquina de tejer, y muchas otras maquinarias. Luego se comienza a necesitar realizar cálculos muy grandes, que eran difíciles de realizar por el hombre, ya que tomaba años terminar un cálculo. Entonces comienzan a crear las computadoras, con ellas se realizaban las tareas matemáticas de manera más rápida y segura.
Sin embargo no era suficiente, por naturaleza se tiende a buscar mas rapidez, y es cuando comienza la técnica de "miniaturización" que cada día se perfecciona mas; con este método se logra hacer procesadores mas rápidos por circuitos mas pequeños, de igual manera se logra tener capacidades de almacenamiento abismales en espacios físicos muy pequeños, la ciencia de la computación se encuentra en su mejor momento.
Introducción

El documento que se está presentando tiene como única finalidad expresar y hacer ver como a lo largo de los años y de los tiempos los dispositivos de almacenamiento computarizados han logrado evolucionar y tener actualmente capacidades que no eran pensables hace 20 años atrás.
Prueba de la rapidez del avance informático, es tangible con cosas tan fáciles de encontrar como un artículo de revista de computación, páginas de Internet de años anteriores que no se hayan actualizado, libros antiguos de computación, entre otras.
Tomando cualquiera de estos documentos podemos notar que las proyecciones, fechas pautadas, capacidad de disco duros estipuladas para años siguientes se quedan cortas.
La tecnología avanza a pasos inmensos frente a nuestros ojos, día a día y los requerimientos de las grandes empresas, son cada vez mayores, inclusive la exigencia de los consumidores por ejemplo de juegos de video cada vez son mayores, lo que ocasiona que los procesadores tengan que ser mas rápidos, y las capacidades deben ser proporcionalmente grandes a la velocidad del procesador.
Finalmente este trabajo documental resaltará la historia de los dispositivos de almacenamiento en las computadoras personales, la forma en las que funcionaron y funcionan los actuales y la importancia que tiene la evolución de los mismos. El orden que tendrá a lo largo del documento será cronológico.
Prueba de la rapidez del avance informático, es tangible con cosas tan fáciles de encontrar como un artículo de revista de computación, páginas de Internet de años anteriores que no se hayan actualizado, libros antiguos de computación, entre otras.
Tomando cualquiera de estos documentos podemos notar que las proyecciones, fechas pautadas, capacidad de disco duros estipuladas para años siguientes se quedan cortas.
La tecnología avanza a pasos inmensos frente a nuestros ojos, día a día y los requerimientos de las grandes empresas, son cada vez mayores, inclusive la exigencia de los consumidores por ejemplo de juegos de video cada vez son mayores, lo que ocasiona que los procesadores tengan que ser mas rápidos, y las capacidades deben ser proporcionalmente grandes a la velocidad del procesador.
Finalmente este trabajo documental resaltará la historia de los dispositivos de almacenamiento en las computadoras personales, la forma en las que funcionaron y funcionan los actuales y la importancia que tiene la evolución de los mismos. El orden que tendrá a lo largo del documento será cronológico.
Los inicios de las unidades de almacenamiento de datos, comenzaron con las tarjetas perforadas, unidades por cierto poco cómodas, ya que había que recordar el orden de las mismas, (ya que si este se perdía no había forma de recuperar el programa) estas tarjetas se insertaban en una gran máquina de procesamiento de manera secuencial, donde quedaba el programa alojado en memoria y listo para ser probado. La forma de lectura era semejante al sistema de lectura braile, la computadora leía por agujeros en las tarjetas. Vale destacar que en ocasiones y dependiendo de la complejidad del programa podía ocupar cerca de 200 tarjetas que había que colocar una por una dentro de la máquina, y al apagar la máquina todos esos datos se perdían.
Años mas tarde debido a la necesidad de llevar un orden en estas tarjetas y de no tener que perder tanto tiempo introduciendo una por una, se crea la cinta de tarjetas perforadas, mejor conocida como cinta perforada, y de esta manera se hace muchísimo mas fácil la portabilidad de este sistema. No pasó mucho tiempo cuando se descubre la nueva tecnología de las cintas magnéticas y se comienza a aplicar en el almacenamiento de datos para computadores ya que las mismas consistían básicamente en espacios de cinta cubierta de óxido ferroso, donde se colocaba positivo o negativo, dependiendo del caso, el principio era tener una serie de imanes entrelazados en una cinta a los cuales les podías cambiar la polaridad y esto hacía que se trabajara bajo el mismo principio de las cintas perforadas pero sin necesidad de tener orificios, sólo trabajándola por ondas magnéticas, esto se lograba con el componente ferroso que se colocaba sobre la cinta; Para asegurar esos datos se crearon distintas formas que a la larga comenzaron a ser obsoletas, ya que el tamaño que tenían estas cintas era demasiado grande.
Años mas tarde debido a la necesidad de llevar un orden en estas tarjetas y de no tener que perder tanto tiempo introduciendo una por una, se crea la cinta de tarjetas perforadas, mejor conocida como cinta perforada, y de esta manera se hace muchísimo mas fácil la portabilidad de este sistema. No pasó mucho tiempo cuando se descubre la nueva tecnología de las cintas magnéticas y se comienza a aplicar en el almacenamiento de datos para computadores ya que las mismas consistían básicamente en espacios de cinta cubierta de óxido ferroso, donde se colocaba positivo o negativo, dependiendo del caso, el principio era tener una serie de imanes entrelazados en una cinta a los cuales les podías cambiar la polaridad y esto hacía que se trabajara bajo el mismo principio de las cintas perforadas pero sin necesidad de tener orificios, sólo trabajándola por ondas magnéticas, esto se lograba con el componente ferroso que se colocaba sobre la cinta; Para asegurar esos datos se crearon distintas formas que a la larga comenzaron a ser obsoletas, ya que el tamaño que tenían estas cintas era demasiado grande.
Pese a que la evolución de los discos duros está inmersa con la creación de los dispositivos magnéticos de almacenamiento, es preferible considerarlo en un punto aparte ya que su estructura compleja amerita utilizar un espacio reservado para él.
Siempre han tenido el mismo principio de desarrollo, que consiste en que los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último).
Asimismo estos cilindros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para la primera.
En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda en el sector a grabar y se hace pasar a través de ella un pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda.
Siempre han tenido el mismo principio de desarrollo, que consiste en que los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último).
Asimismo estos cilindros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para la primera.
En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda en el sector a grabar y se hace pasar a través de ella un pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda.
Desarrollo acelerado
El mercado no varió durante años para los dispositivos de almacenamiento, es decir, no salieron nuevos productos ya que se podía trabajar muy bien con los creados hasta el momento, lo que si se hizo en todos los componentes de un computador personal, fue aplicarles mejores técnicas de desarrollo para que fueran mas rápidos y de mayor capacidad, casualmente en esos años aparece una nueva unidad de almacenamiento conocida en su momento como unidad ZIP, estas unidades no estaban disponibles para todas las computadoras ya que no era compatible con casi ninguna arquitectura creada hasta el momento, pero la parte importante de estas unidades es que su capacidad era bastante alta, inicialmente fueron de 50 Mb y fueron aumentando con el tiempo; Sin embargo, no tuvo mucho éxito pese a su gran capacidad para la época, las razones de esto fueron:
No eran 100% compatibles con las computadoras clon, que eran las mas vendidas (Y siguen siendo).
Los costos de las unidades eran muy altos, tanto el dispositivo de lecto/escritura, como el de almacenamiento.
Siempre se planteó como unidad adicional al equipo, situación que no ayudó a su fácil comercialización.
Su principio también era el de los diskettes y/o cintas magnéticas, solo eran un poco mas grandes que las unidades de 3 ½" sin llegar a los de 5 ¼"
Pasado un tiempo cuando ocurre la aparición del modelo 80586 de Intel cuando se logran ver los primeros resultados de un estudio de años, y eran los Discos compactos, conocidos como Cd´s, en estas unidades se podía almacenar hasta 650 MegaBytes, lo que era un gran avance ya que todavía estaban disco duros con menor capacidad vigentes en el mercado, así como también habían de mayor capacidad de los mismos.
Esta tecnología trabajó por lecto/escritura óptica, es decir, la unidad lectora sencilla de computador personal conocida como CD-ROM, la medida de rapidez de esta unidad es mediante la letra "X" lo que significa cada X es 150Kb/s, inicialmente existieron unidades de 2X, luego de 4X, luego de 8X, y así sucesivamente fue evolucionando, hasta que sacaron un modelo experimental de 100X que no era mas que una farsa, ya que la unidad no alcanzaba mas de 50X pero tenía un doble buffer, cosa que facilitaba el trabajo para el CPU, debido a esta situación, hubo que quedarse con las unidades de máximo 52X para lectura (Es decir, 7.8 megabytes por segundo) para lectura. Las unidades personales que grababan en los cd´s, conocidas como "Quemadoras", salen casi a la par de las unidades lectoras, la diferencia fue de casi 2 años, cosa que evitó por un tiempo la piratería que no fue del todo prevista
No eran 100% compatibles con las computadoras clon, que eran las mas vendidas (Y siguen siendo).
Los costos de las unidades eran muy altos, tanto el dispositivo de lecto/escritura, como el de almacenamiento.
Siempre se planteó como unidad adicional al equipo, situación que no ayudó a su fácil comercialización.
Su principio también era el de los diskettes y/o cintas magnéticas, solo eran un poco mas grandes que las unidades de 3 ½" sin llegar a los de 5 ¼"
Pasado un tiempo cuando ocurre la aparición del modelo 80586 de Intel cuando se logran ver los primeros resultados de un estudio de años, y eran los Discos compactos, conocidos como Cd´s, en estas unidades se podía almacenar hasta 650 MegaBytes, lo que era un gran avance ya que todavía estaban disco duros con menor capacidad vigentes en el mercado, así como también habían de mayor capacidad de los mismos.
Esta tecnología trabajó por lecto/escritura óptica, es decir, la unidad lectora sencilla de computador personal conocida como CD-ROM, la medida de rapidez de esta unidad es mediante la letra "X" lo que significa cada X es 150Kb/s, inicialmente existieron unidades de 2X, luego de 4X, luego de 8X, y así sucesivamente fue evolucionando, hasta que sacaron un modelo experimental de 100X que no era mas que una farsa, ya que la unidad no alcanzaba mas de 50X pero tenía un doble buffer, cosa que facilitaba el trabajo para el CPU, debido a esta situación, hubo que quedarse con las unidades de máximo 52X para lectura (Es decir, 7.8 megabytes por segundo) para lectura. Las unidades personales que grababan en los cd´s, conocidas como "Quemadoras", salen casi a la par de las unidades lectoras, la diferencia fue de casi 2 años, cosa que evitó por un tiempo la piratería que no fue del todo prevista

Pese a que parezca un poco arriesgado a quedarse corto como ha ocurrido en artículos de prensa y proyecciones publicados a lo largo de estos años, pareciera que ahora sí se puede tener una proyección bastante clara de lo que será el futuro de los dispositivos de almacenamiento en los próximos 3 años, y es que, pese a que se plantea una rama de almacenamiento holográfico, el concepto que hay detrás del mismo no es nuevo. De la misma manera que un holograma codifica objetos en tres dimensiones mediante patrones de interferencia de luz, el HVD (Holographic Versatile Disk) usa el mismo principio para almacenar datos con densidades notablemente superiores a las de los actuales soportes ópticos. Sin embargo resulta difícil de creer que puedan desarrollarla antes del año 2006. Volviendo al punto de desarrollo de tecnologías futuras, se estipula que la ya implementada tecnología por SONY conocida como láser azul, sea el camino que tome la computación y el almacenamiento de datos en los próximos años.
Las razones son claras, y es que los diseñadores de la misma, (referencias en la página Web de la empresa Osta) pensaron bajo el siguiente paradigma, "si todos los dispositivos de almacenamiento óptico (CD, DVD, MO...) usan un rayo láser, el cual es dirigido a un pequeñísimo lugar del disco mediante una lente especial; en los dispositivos CD y DVD actuales, se usa un tipo de láser especial basado en Arseniuro de Galio (GaAs), que produce un haz de luz casi infrarrojo, y además la forma ovalada que consigue el láser antes de llegar a dicha lente especial (lente de objetivo) debe ser convertida a un punto de aproximadamente 1micra de diámetro para leer correctamente las marcas del disco.
Para producir este pequeño punto es necesario comprimir el haz de láser en un cono convergente de luz. La convergencia es medida por la Apertura Numérica (NA), la cual, para sistemas que funcionan al aire libre, tiene un valor máximo de 1.0. Entonces, La capacidad total de lectura se puede aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado.
Si esta longitud de onda es muy grande, sólo se podrán leer marcas grandes, ya que si son más pequeñas, el haz de luz abarcaría varias de ellas simultáneamente. La marca más pequeña que se puede obtener con tecnología óptica es determinada por el límite de difracción que no es más que el espectro de luz visible.
Toda esta teoría en la que está basado el láser azul no quiere decir otra cosa que, se ha pasado de un extremo a otro de la gama de colores, cambiando el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a mayores capacidades. Los productos MO actuales (14x) usan una menor longitud de onda, de 660 NM, comparados con la primera generación (1x) que era de 830 NM, lo que permite incrementar la densidad de almacenamiento. Esto sucede igualmente con el DVD, que tiene una longitud de onda de 650 NM por los 780 NM del CD. Como se puede ver, la historia tanto de los dispositivos magnéticos como los ópticos se repite, una vez creado el principio, solo se busca optimizar el espacio y la densidad en ellos.
Las razones son claras, y es que los diseñadores de la misma, (referencias en la página Web de la empresa Osta) pensaron bajo el siguiente paradigma, "si todos los dispositivos de almacenamiento óptico (CD, DVD, MO...) usan un rayo láser, el cual es dirigido a un pequeñísimo lugar del disco mediante una lente especial; en los dispositivos CD y DVD actuales, se usa un tipo de láser especial basado en Arseniuro de Galio (GaAs), que produce un haz de luz casi infrarrojo, y además la forma ovalada que consigue el láser antes de llegar a dicha lente especial (lente de objetivo) debe ser convertida a un punto de aproximadamente 1micra de diámetro para leer correctamente las marcas del disco.
Para producir este pequeño punto es necesario comprimir el haz de láser en un cono convergente de luz. La convergencia es medida por la Apertura Numérica (NA), la cual, para sistemas que funcionan al aire libre, tiene un valor máximo de 1.0. Entonces, La capacidad total de lectura se puede aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado.
Si esta longitud de onda es muy grande, sólo se podrán leer marcas grandes, ya que si son más pequeñas, el haz de luz abarcaría varias de ellas simultáneamente. La marca más pequeña que se puede obtener con tecnología óptica es determinada por el límite de difracción que no es más que el espectro de luz visible.
Toda esta teoría en la que está basado el láser azul no quiere decir otra cosa que, se ha pasado de un extremo a otro de la gama de colores, cambiando el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a mayores capacidades. Los productos MO actuales (14x) usan una menor longitud de onda, de 660 NM, comparados con la primera generación (1x) que era de 830 NM, lo que permite incrementar la densidad de almacenamiento. Esto sucede igualmente con el DVD, que tiene una longitud de onda de 650 NM por los 780 NM del CD. Como se puede ver, la historia tanto de los dispositivos magnéticos como los ópticos se repite, una vez creado el principio, solo se busca optimizar el espacio y la densidad en ellos.
World Wide Web
En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica.
Funcionamiento de la Web
La visualización de una página web de la World Wide Web normalmente comienza tecleando la URL de la página en el navegador web, o siguiendo un enlace de hipertexto a esa página o recurso. En ese momento el navegador comienza una serie de comunicaciones, transparentes para el usuario, para obtener los datos de la página y visualizarla.
El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.
La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web.
El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.
La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web.
Historia
La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevan
tes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web.Estándares Web
Destacamos los siguientes estándares:
el Identificador de Recurso Uniforme (URI), que es un sistema universal para referenciar recursos en la Web, como páginas web,
el Protocolo de Transferencia de Hipertexto (HTTP), que especifica cómo se comunican el navegador y el servidor entre ellos,
el Lenguaje de Marcado de Hipertexto (HTML), usado para definir la estructura y contenido de documentos de hipertexto,
el Lenguaje de Marcado Extensible (XML), usado para describir la estructura de los documentos de texto.
Berners Lee dirige desde 2007 el World Wide Web Consortium (W3C), el cual desarrolla y mantiene esos y otros estándares que permiten a los ordenadores de la Web almacenar y comunicar efectivamente diferentes formas de información.
el Identificador de Recurso Uniforme (URI), que es un sistema universal para referenciar recursos en la Web, como páginas web,
el Protocolo de Transferencia de Hipertexto (HTTP), que especifica cómo se comunican el navegador y el servidor entre ellos,
el Lenguaje de Marcado de Hipertexto (HTML), usado para definir la estructura y contenido de documentos de hipertexto,
el Lenguaje de Marcado Extensible (XML), usado para describir la estructura de los documentos de texto.
Berners Lee dirige desde 2007 el World Wide Web Consortium (W3C), el cual desarrolla y mantiene esos y otros estándares que permiten a los ordenadores de la Web almacenar y comunicar efectivamente diferentes formas de información.
Java y JavaScript
Un avance significativo en la tecnología web fue la Plataforma Java de Sun Microsystems. Este lenguaje permite que las páginas web contengan pequeños programas (llamados applets) directamente en la visualización. Estos applets se ejecutan en el ordenador del usuario, proporcionando un interfaz de usuario más rico que simples páginas web. Los applets Java del cliente nunca obtuvieron la popularidad que Sun esperaba de ellos, por una serie de razones, incluyendo la falta de integración con otros contenidos (los applets fueron confinados a pequeñas cajas dentro de la página renderizada) y el hecho de que muchos ordenadores del momento eran vendidos a los usuarios finales sin una JVM correctamente instalada, por lo que se necesitaba que el usuario descargara la máquina virtual antes de que el applet comenzara a aparecer. Actualmente Adobe Flash desempeña muchas de las funciones que originalmente se pensaron que podrían hacer los applets de Java incluyendo la ejecución de contenido de vídeo, animaciones y algunas características superiores de GUI. En estos momentos Java se utiliza más como plataforma y lenguaje para el lado del servidor y otro tipo de programación.
Pronunciación de "www."
En inglés, WWW. es el acrónimo de tres letras más largo de pronunciar, necesitando nueve sílabas. En Douglas Adams puede recogerse la siguiente cita:
"El World Wide Web es la única cosa que conozco de cuya forma abreviada se tarda tres veces más en decirla que su forma extendida." Douglas Adams The Independent on Sunday, 1999
La pronunciación castellana es: "uve doble, uve doble, uve doble, punto". En algunos países en donde se habla español, como en México, se suele pronunciar "triple doble u, punto" o "doble u, doble u, doble u, punto", en Cuba, Argentina, Venezuela, Chile, Paraguay y Uruguay "triple doble v, punto" o "doble uve, doble uve, doble uve, punto", en Ecuador y Colombia "doble u, doble u, doble u, punto" y en otros países "tres uves dobles, punto".
En Chino, la World Wide Web normalmente se traduce por wàn wéi wǎng (万维网), que satisface las "www" y que significa literalmente "red de 10 mil dimensiones".
En italiano, se pronuncia con mayor facilidad: "vu vu vu".
Estándares
Lo siguiente es una lista de los documentos que definen los tres estándars principales de la Web:
Uniform Resource Locators (URL) (en castellano, Localizador de Recursos Uniforme)
RFC 1738, Localizador de Recursos Uniforme (URL) (Diciembre de 1994)
RFC 3986, Uniform Resource Identifier (URI) (en castellano, Identificador de Recursos Uniforme): Sintaxis general (Enero de 2005)
Hypertext Transfer Protocol (HTTP) (en castellano, Protocolo de Transferencia de Hipertexto)
RFC 1945, Especificación de HTTP/1.0 (Mayo de 1996)
RFC 2616, Especificación de HTTP/1.1 (Junio de 1999)
RFC 2617, Autenticación HTTP
HTTP/1.1 Especificación de errores de HTTP/1.1
Hypertext Markup Language (HTML) (en castellano, Lenguaje de Etiquetado de Hipertexto)
Internet Draft, HTML version 1
RFC 1866, HTML version 2.0
Referencia de la especificación HTML 3.2
Especificación de HTML 4.01
Especificación de HTML Extensible (XHTML)
jueves, 4 de junio de 2009
¿Qué es un Wiki?

El término Wiki es de origen hawaiano que significa: rápido. Comúnmente para abreviar esta palabra se utiliza Wiki y en términos tecnológicos es un software para la creación de contenido de forma colaborativa.
Wiki es el nombre que el programador de Oregón, Ward Cunningham, escogió para su invento, en 1994: un sistema de creación, intercambio y revisión de información en la web, de forma fácil y automática.

Todos hemos escuchado de la famosa enciclopedia que se dio a conocer en el 2001 denominada Wikipedia, la cual hoy aglutina más de un millón de artículos en Inglés y 100,000 en español. Esta enciclopedia permite a los usuarios accesar y modificar sus contenidos.
Un Wiki sirve para crear páginas web de forma rápida y eficaz, además ofrece gran libertad a los usuarios, incluso para aquellos usuarios que no tienen muchos conocimientos de informática ni programación, permite de forma muy sencilla incluir textos, hipertextos, docume
ntos digitales, enlaces y demás.La finalidad de un Wiki es permitir que varios usuarios puedan crear páginas web sobre un mismo tema, de esta forma cada usuario aporta un poco de su conocimiento para que la página web sea más completa, creando de esta forma una comunidad de usuarios que comparten contenidos acerca de un mismo tema o categoría.
Los promotores de la enciclopedia libre universal, comparten sus definiciones de un Wiki, Javier de la Cueva afirma un wiki es: "Un gigantesco tablón de anuncios donde cualquiera puede poner sus notas, borrar o modificar las de otros o crear enlaces".
Por otro lado Juan Antonio Ruiz: "Son sitios web escritos en colaboración por un grupo de usuarios, que tratan sobre un mismo tema. Cualquiera que llega a un Wiki puede participar de inmediato y sus aportaciones son comentadas, ampliadas o corregidas por el resto. Para mi, es la primera herramienta verdaderamente útil en la gestión del conocimiento en red".
videos de wiki
jueves, 28 de mayo de 2009
Suscribirse a:
Entradas (Atom)




