jueves, 18 de junio de 2009

Continuar Leyendo...

jueves, 11 de junio de 2009

Evolución informática





Resumen
A lo largo de la historia, incluso desde tiempos en los que no existía la electricidad, el hombre siempre ha querido simplificar su modo de vida, por esta razón los grandes pensadores de todos los tiempos, han dedicado gran parte de su vida a desarrollar teorías matemáticas para construir máquinas que simplifiquen las tareas de la vida diaria.
El verdadero auge de estas ideas comienza en la época de la revolución industrial con la aparición de la máquina de tejer, y muchas otras maquinarias. Luego se comienza a necesitar realizar cálculos muy grandes, que eran difíciles de realizar por el hombre, ya que tomaba años terminar un cálculo. Entonces comienzan a crear las computadoras, con ellas se realizaban las tareas matemáticas de manera más rápida y segura.
Sin embargo no era suficiente, por naturaleza se tiende a buscar mas rapidez, y es cuando comienza la técnica de "miniaturización" que cada día se perfecciona mas; con este método se logra hacer procesadores mas rápidos por circuitos mas pequeños, de igual manera se logra tener capacidades de almacenamiento abismales en espacios físicos muy pequeños, la ciencia de la computación se encuentra en su mejor momento.

Introducción


El documento que se está presentando tiene como única finalidad expresar y hacer ver como a lo largo de los años y de los tiempos los dispositivos de almacenamiento computarizados han logrado evolucionar y tener actualmente capacidades que no eran pensables hace 20 años atrás.
Prueba de la rapidez del avance informático, es tangible con cosas tan fáciles de encontrar como un artículo de revista de computación, páginas de Internet de años anteriores que no se hayan actualizado, libros antiguos de computación, entre otras.
Tomando cualquiera de estos documentos podemos notar que las proyecciones, fechas pautadas, capacidad de disco duros estipuladas para años siguientes se quedan cortas.
La tecnología avanza a pasos inmensos frente a nuestros ojos, día a día y los requerimientos de las grandes empresas, son cada vez mayores, inclusive la exigencia de los consumidores por ejemplo de juegos de video cada vez son mayores, lo que ocasiona que los procesadores tengan que ser mas rápidos, y las capacidades deben ser proporcionalmente grandes a la velocidad del procesador.
Finalmente este trabajo documental resaltará la historia de los dispositivos de almacenamiento en las computadoras personales, la forma en las que funcionaron y funcionan los actuales y la importancia que tiene la evolución de los mismos. El orden que tendrá a lo largo del documento será cronológico.

El inicio


Los inicios de las unidades de almacenamiento de datos, comenzaron con las tarjetas perforadas, unidades por cierto poco cómodas, ya que había que recordar el orden de las mismas, (ya que si este se perdía no había forma de recuperar el programa) estas tarjetas se insertaban en una gran máquina de procesamiento de manera secuencial, donde quedaba el programa alojado en memoria y listo para ser probado. La forma de lectura era semejante al sistema de lectura braile, la computadora leía por agujeros en las tarjetas. Vale destacar que en ocasiones y dependiendo de la complejidad del programa podía ocupar cerca de 200 tarjetas que había que colocar una por una dentro de la máquina, y al apagar la máquina todos esos datos se perdían.
Años mas tarde debido a la necesidad de llevar un orden en estas tarjetas y de no tener que perder tanto tiempo introduciendo una por una, se crea la cinta de tarjetas perforadas, mejor conocida como cinta perforada, y de esta manera se hace muchísimo mas fácil la portabilidad de este sistema. No pasó mucho tiempo cuando se descubre la nueva tecnología de las cintas magnéticas y se comienza a aplicar en el almacenamiento de datos para computadores ya que las mismas consistían básicamente en espacios de cinta cubierta de óxido ferroso, donde se colocaba positivo o negativo, dependiendo del caso, el principio era tener una serie de imanes entrelazados en una cinta a los cuales les podías cambiar la polaridad y esto hacía que se trabajara bajo el mismo principio de las cintas perforadas pero sin necesidad de tener orificios, sólo trabajándola por ondas magnéticas, esto se lograba con el componente ferroso que se colocaba sobre la cinta; Para asegurar esos datos se crearon distintas formas que a la larga comenzaron a ser obsoletas, ya que el tamaño que tenían estas cintas era demasiado grande.

Discos Duros


Pese a que la evolución de los discos duros está inmersa con la creación de los dispositivos magnéticos de almacenamiento, es preferible considerarlo en un punto aparte ya que su estructura compleja amerita utilizar un espacio reservado para él.
Siempre han tenido el mismo principio de desarrollo, que consiste en que los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último).
Asimismo estos cilindros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para la primera.
En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda en el sector a grabar y se hace pasar a través de ella un pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda.


Desarrollo acelerado


El mercado no varió durante años para los dispositivos de almacenamiento, es decir, no salieron nuevos productos ya que se podía trabajar muy bien con los creados hasta el momento, lo que si se hizo en todos los componentes de un computador personal, fue aplicarles mejores técnicas de desarrollo para que fueran mas rápidos y de mayor capacidad, casualmente en esos años aparece una nueva unidad de almacenamiento conocida en su momento como unidad ZIP, estas unidades no estaban disponibles para todas las computadoras ya que no era compatible con casi ninguna arquitectura creada hasta el momento, pero la parte importante de estas unidades es que su capacidad era bastante alta, inicialmente fueron de 50 Mb y fueron aumentando con el tiempo; Sin embargo, no tuvo mucho éxito pese a su gran capacidad para la época, las razones de esto fueron:
No eran 100% compatibles con las computadoras clon, que eran las mas vendidas (Y siguen siendo).
Los costos de las unidades eran muy altos, tanto el dispositivo de lecto/escritura, como el de almacenamiento.
Siempre se planteó como unidad adicional al equipo, situación que no ayudó a su fácil comercialización.
Su principio también era el de los diskettes y/o cintas magnéticas, solo eran un poco mas grandes que las unidades de 3 ½" sin llegar a los de 5 ¼"
Pasado un tiempo cuando ocurre la aparición del modelo 80586 de Intel cuando se logran ver los primeros resultados de un estudio de años, y eran los Discos compactos, conocidos como Cd´s, en estas unidades se podía almacenar hasta 650 MegaBytes, lo que era un gran avance ya que todavía estaban disco duros con menor capacidad vigentes en el mercado, así como también habían de mayor capacidad de los mismos.
Esta tecnología trabajó por lecto/escritura óptica, es decir, la unidad lectora sencilla de computador personal conocida como CD-ROM, la medida de rapidez de esta unidad es mediante la letra "X" lo que significa cada X es 150Kb/s, inicialmente existieron unidades de 2X, luego de 4X, luego de 8X, y así sucesivamente fue evolucionando, hasta que sacaron un modelo experimental de 100X que no era mas que una farsa, ya que la unidad no alcanzaba mas de 50X pero tenía un doble buffer, cosa que facilitaba el trabajo para el CPU, debido a esta situación, hubo que quedarse con las unidades de máximo 52X para lectura (Es decir, 7.8 megabytes por segundo) para lectura. Las unidades personales que grababan en los cd´s, conocidas como "Quemadoras", salen casi a la par de las unidades lectoras, la diferencia fue de casi 2 años, cosa que evitó por un tiempo la piratería que no fue del todo prevista


Tecnologías Futuras


Pese a que parezca un poco arriesgado a quedarse corto como ha ocurrido en artículos de prensa y proyecciones publicados a lo largo de estos años, pareciera que ahora sí se puede tener una proyección bastante clara de lo que será el futuro de los dispositivos de almacenamiento en los próximos 3 años, y es que, pese a que se plantea una rama de almacenamiento holográfico, el concepto que hay detrás del mismo no es nuevo. De la misma manera que un holograma codifica objetos en tres dimensiones mediante patrones de interferencia de luz, el HVD (Holographic Versatile Disk) usa el mismo principio para almacenar datos con densidades notablemente superiores a las de los actuales soportes ópticos. Sin embargo resulta difícil de creer que puedan desarrollarla antes del año 2006. Volviendo al punto de desarrollo de tecnologías futuras, se estipula que la ya implementada tecnología por SONY conocida como láser azul, sea el camino que tome la computación y el almacenamiento de datos en los próximos años.
Las razones son claras, y es que los diseñadores de la misma, (referencias en la página Web de la empresa Osta) pensaron bajo el siguiente paradigma, "si todos los dispositivos de almacenamiento óptico (CD, DVD, MO...) usan un rayo láser, el cual es dirigido a un pequeñísimo lugar del disco mediante una lente especial; en los dispositivos CD y DVD actuales, se usa un tipo de láser especial basado en Arseniuro de Galio (GaAs), que produce un haz de luz casi infrarrojo, y además la forma ovalada que consigue el láser antes de llegar a dicha lente especial (lente de objetivo) debe ser convertida a un punto de aproximadamente 1micra de diámetro para leer correctamente las marcas del disco.
Para producir este pequeño punto es necesario comprimir el haz de láser en un cono convergente de luz. La convergencia es medida por la Apertura Numérica (NA), la cual, para sistemas que funcionan al aire libre, tiene un valor máximo de 1.0. Entonces, La capacidad total de lectura se puede aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado.
Si esta longitud de onda es muy grande, sólo se podrán leer marcas grandes, ya que si son más pequeñas, el haz de luz abarcaría varias de ellas simultáneamente. La marca más pequeña que se puede obtener con tecnología óptica es determinada por el límite de difracción que no es más que el espectro de luz visible.
Toda esta teoría en la que está basado el láser azul no quiere decir otra cosa que, se ha pasado de un extremo a otro de la gama de colores, cambiando el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a mayores capacidades. Los productos MO actuales (14x) usan una menor longitud de onda, de 660 NM, comparados con la primera generación (1x) que era de 830 NM, lo que permite incrementar la densidad de almacenamiento. Esto sucede igualmente con el DVD, que tiene una longitud de onda de 650 NM por los 780 NM del CD. Como se puede ver, la historia tanto de los dispositivos magnéticos como los ópticos se repite, una vez creado el principio, solo se busca optimizar el espacio y la densidad en ellos.








Continuar Leyendo...



World Wide Web

En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica.

Funcionamiento de la Web
La visualización de una página web de la World Wide Web normalmente comienza tecleando la URL de la página en el navegador web, o siguiendo un enlace de hipertexto a esa página o recurso. En ese momento el navegador comienza una serie de comunicaciones, transparentes para el usuario, para obtener los datos de la página y visualizarla.
El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.
La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web.



Historia

La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web.
Estándares Web
Destacamos los siguientes estándares:
el Identificador de Recurso Uniforme (URI), que es un sistema universal para referenciar recursos en la Web, como páginas web,
el Protocolo de Transferencia de Hipertexto (HTTP), que especifica cómo se comunican el navegador y el servidor entre ellos,
el Lenguaje de Marcado de Hipertexto (HTML), usado para definir la estructura y contenido de documentos de hipertexto,
el Lenguaje de Marcado Extensible (XML), usado para describir la estructura de los documentos de texto.
Berners Lee dirige desde 2007 el World Wide Web Consortium (W3C), el cual desarrolla y mantiene esos y otros estándares que permiten a los ordenadores de la Web almacenar y comunicar efectivamente diferentes formas de información.

Java y JavaScript

Un avance significativo en la tecnología web fue la Plataforma Java de Sun Microsystems. Este lenguaje permite que las páginas web contengan pequeños programas (llamados applets) directamente en la visualización. Estos applets se ejecutan en el ordenador del usuario, proporcionando un interfaz de usuario más rico que simples páginas web. Los applets Java del cliente nunca obtuvieron la popularidad que Sun esperaba de ellos, por una serie de razones, incluyendo la falta de integración con otros contenidos (los applets fueron confinados a pequeñas cajas dentro de la página renderizada) y el hecho de que muchos ordenadores del momento eran vendidos a los usuarios finales sin una JVM correctamente instalada, por lo que se necesitaba que el usuario descargara la máquina virtual antes de que el applet comenzara a aparecer. Actualmente Adobe Flash desempeña muchas de las funciones que originalmente se pensaron que podrían hacer los applets de Java incluyendo la ejecución de contenido de vídeo, animaciones y algunas características superiores de GUI. En estos momentos Java se utiliza más como plataforma y lenguaje para el lado del servidor y otro tipo de programación.
Pronunciación de "www."

En inglés, WWW. es el acrónimo de tres letras más largo de pronunciar, necesitando nueve sílabas. En Douglas Adams puede recogerse la siguiente cita:
"El World Wide Web es la única cosa que conozco de cuya forma abreviada se tarda tres veces más en decirla que su forma extendida." Douglas Adams The Independent on Sunday, 1999
La pronunciación castellana es: "uve doble, uve doble, uve doble, punto". En algunos países en donde se habla español, como en México, se suele pronunciar "triple doble u, punto" o "doble u, doble u, doble u, punto", en Cuba, Argentina, Venezuela, Chile, Paraguay y Uruguay "triple doble v, punto" o "doble uve, doble uve, doble uve, punto", en Ecuador y Colombia "doble u, doble u, doble u, punto" y en otros países "tres uves dobles, punto".
En Chino, la World Wide Web normalmente se traduce por wàn wéi wǎng (万维网), que satisface las "www" y que significa literalmente "red de 10 mil dimensiones".
En italiano, se pronuncia con mayor facilidad: "vu vu vu".

Estándares

Lo siguiente es una lista de los documentos que definen los tres estándars principales de la Web:
Uniform Resource Locators (URL) (en castellano, Localizador de Recursos Uniforme)
RFC 1738, Localizador de Recursos Uniforme (URL) (Diciembre de 1994)
RFC 3986, Uniform Resource Identifier (URI) (en castellano, Identificador de Recursos Uniforme): Sintaxis general (Enero de 2005)
Hypertext Transfer Protocol (HTTP) (en castellano, Protocolo de Transferencia de Hipertexto)
RFC 1945, Especificación de HTTP/1.0 (Mayo de 1996)
RFC 2616, Especificación de HTTP/1.1 (Junio de 1999)
RFC 2617, Autenticación HTTP
HTTP/1.1 Especificación de errores de HTTP/1.1
Hypertext Markup Language (HTML) (en castellano, Lenguaje de Etiquetado de Hipertexto)
Internet Draft, HTML version 1
RFC 1866, HTML version 2.0
Referencia de la especificación HTML 3.2
Especificación de HTML 4.01
Especificación de HTML Extensible (XHTML)



















Continuar Leyendo...

jueves, 4 de junio de 2009

¿Qué es un Wiki?





El término Wiki es de origen hawaiano que significa: rápido. Comúnmente para abreviar esta palabra se utiliza Wiki y en términos tecnológicos es un software para la creación de contenido de forma colaborativa.

Wiki es el nombre que el programador de Oregón, Ward Cunningham, escogió para su invento, en 1994: un sistema de creación, intercambio y revisión de información en la web, de forma fácil y automática.





Todos hemos escuchado de la famosa enciclopedia que se dio a conocer en el 2001 denominada Wikipedia, la cual hoy aglutina más de un millón de artículos en Inglés y 100,000 en español. Esta enciclopedia permite a los usuarios accesar y modificar sus contenidos.



Un Wiki sirve para crear páginas web de forma rápida y eficaz, además ofrece gran libertad a los usuarios, incluso para aquellos usuarios que no tienen muchos conocimientos de informática ni programación, permite de forma muy sencilla incluir textos, hipertextos, documentos digitales, enlaces y demás.

La finalidad de un Wiki es permitir que varios usuarios puedan crear páginas web sobre un mismo tema, de esta forma cada usuario aporta un poco de su conocimiento para que la página web sea más completa, creando de esta forma una comunidad de usuarios que comparten contenidos acerca de un mismo tema o categoría.

Los promotores de la enciclopedia libre universal, comparten sus definiciones de un Wiki, Javier de la Cueva afirma un wiki es: "Un gigantesco tablón de anuncios donde cualquiera puede poner sus notas, borrar o modificar las de otros o crear enlaces".

Por otro lado Juan Antonio Ruiz: "Son sitios web escritos en colaboración por un grupo de usuarios, que tratan sobre un mismo tema. Cualquiera que llega a un Wiki puede participar de inmediato y sus aportaciones son comentadas, ampliadas o corregidas por el resto. Para mi, es la primera herramienta verdaderamente útil en la gestión del conocimiento en red".


videos de wiki








Continuar Leyendo...

jueves, 28 de mayo de 2009

Prrueba

Esta es una prueba

este es el cuerpo de la entrada

Continuar Leyendo...

imagenes y video de redes inalambricas














Continuar Leyendo...

imagenes y videos de redes inalambricas







Continuar Leyendo...

jueves, 21 de mayo de 2009

Video de Redes Inalambricas II

Continuar Leyendo...

Video de Redes Inalambricas

Continuar Leyendo...

REDES WPAN




WPAN


DEFINICIÓN


Wireless Personal Area Networks, Red Inalámbrica de Área Personal o Red de área personal o Personal area network es una red de computadoras para la comunicación entre distintos dispositivos (tanto computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y para uso personal, así como fuera de ella.


Evolución


Las comunicaciones inalámbricas experimentaron un crecimiento muy importante dentro de la última década (GSM, IS-95, GPRS y EDGE, UMTS, y IMT-2000). Estas tecnologías permitieron una altísima transferencia de datos dentro de las soluciones de sistemas o redes inalámbricas. La ventaja de las comunicaciones inalámbricas es que con la terminal la persona se puede mover por toda el área de cobertura, lo que no ocurre con las redes de comunicaciones fijas; esto permitirá el desarrollo de diferentes soluciones PAN y cambiará el concepto de los espacios personales.
Las bases del concepto de red para espacio personal provinieron de ideas que surgieron en el año 1995 en el Massachusetts Institute of Technology (MIT) provienen para usar en señales eléctricas o impulsos eléctricos provenientes del cuerpo humano, y así poder comunicar el mismo con dispositivos adjuntos. Esto fue aceptado en primera instancia por los laboratorios de IBM Research y luego tuvo muchas variaciones desarrolladas por las diferentes instituciones y compañías de investigación. Las diferentes soluciones de PAN incluyen lo siguiente:




  • Proyecto Oxygen (MIT)


  • Pico-radio


  • Infared Data Association (IrDA)


  • Bluetooth


  • IEEE 802.15


El concepto de Bluetooth, originalmente desarrollado para reemplazar a los cables, está siendo aceptado mundialmente, y algunas de estas ideas son incorporados en el estándar IEEE 802.15 relacionado a las PANs.


Conceptos actuales


El espacio personal abarca toda el área que puede cubrir la voz. Puede tener una capacidad en el rango de los 10 bps hasta los 10 Mbps. Existen soluciones (ejemplo, Bluetooth) que operan en la frecuencia libre para instrumentación, ciencia y medicina de sus siglas en inglés (instrumental, scientific, and medical ISM) en su respectiva banda de frecuencia de 2.4 GHz. Los sistemas PAN podrán operar en las bandas libres de 5 GHz o quizás mayores a éstas. PAN es un concepto de red dinámico que exigirá las soluciones técnicas apropiadas para esta arquitectura, protocolos, administración, y seguridad.
PAN representa el concepto de redes centradas en las personas, y que les permiten a dichas personas comunicarse con sus dispositivos personales (ejemplo, PDAs, tableros electrónicos de navegación, agendas electrónicas, computadoras portátiles) para así hacer posible establecer una conexión inalámbrica con el mundo externo.


El paradigma PAN


Las redes para espacios personales continúan desarrollándose hacia la tecnología del Bluetooth hacia el concepto de redes dinámicas, el cual nos permite una fácil comunicación con los dispositivos que van adheridos a nuestro cuerpo o a nuestra indumentaria, ya sea que estemos en movimiento o no, dentro del área de cobertura de nuestra red. PAN prevé el acercamiento de un paradigma de redes, la cual atrae el interés a los investigadores, y las industrias que quieren aprender más acerca de las soluciones avanzadas para redes, tecnologías de radio, altas transferencias de bits, nuevos patrones para celulares, y un soporte de software más sofisticado.
El PAN debe proporcionar una conectividad usuario a usuario, comunicaciones seguras, y QoS que garanticen a los usuarios. El sistema tendrá que soportar diferentes aplicaciones y distintos escenarios de operación, y así poder abarcar una gran variedad de dispositivos


Posibles equipos o dispositivos


Las diferentes demandas del servicio y los panoramas de uso hacen que PAN acumule distintos acercamientos hacia las funciones y capacidades que pueda tener. Algunos dispositivos, como un simple sensor pito, pueden ser muy baratos, y tener a su vez funciones limitadas. Otros pueden incorporar funciones avanzadas, tanto computacionales como de red, lo cual los harán más costosos. Deben preverse los siguientes puntos como importantes para su fácil escalabilidad:




  • Funcionalidad y Complejidad


  • Precio


  • Tarifas para los datos


  • Garantía


  • Soporte para las interfaces.


Los dispositivos más capaces pueden incorporar funciones multimodo que permiten el acceso a múltiples redes.
Algunos de estos dispositivos pueden estar adheridos o usados como vestimenta para la persona (ejemplo, sensores); otros podrían ser fijos o establecidos temporalmente con el espacio personal (ejemplo, sensores, impresoras, y PDAs).


Conclusiones y trabajos futuros


PAN introduce un concepto de espacio personal dentro del mundo de las telecomunicaciones. Esto se convertirá en extensiones de redes, dentro del mundo personal, lo cual nos pone una gran variedad de gallinas de clase fina de nuevas características para resolver las demandas de los servicios de redes. Los usuarios rodeados por sus espacios personales pueden moverse en su espacio y ejecutar aplicaciones en las diferentes redes. Varias tecnologías están listas para nuevas soluciones e ideas, e incluso cosas inimaginables en el momento. B-PAN puede ser uno de ellos.


Véase también




  • IEEE 802.15


  • Bluetooth


  • ZigBee


  • WAN


  • Ultrawideband

Continuar Leyendo...





Red inalámbrica


Las redes inalámbricas (en inglés wireless network) son aquellas que se comunican por un medio de transmisión no guiado (sin cables) mediante ondas electromagnéticas. La transmisión y la recepción se realiza a través de antenas.
Tienen ventajas como la rápida instalación de la red sin la necesidad de usar cableado, permiten la movilidad y tienen menos costos de mantenimiento que una red convencional


Tipos


Según su cobertura, se pueden clasificar en diferentes tipos:
WPAN (Wireless Personal Area Network)
En este tipo de red de cobertura personal, existen tecnologías basadas en HomeRF (estándar para conectar todos los teléfonos móviles de la casa y los ordenadores mediante un aparato central); Bluetooth (protocolo que sigue la especificación IEEE 802.15.1); ZigBee (basado en la especificación IEEE 802.15.4 y utilizado en aplicaciones como la domótica, que requieren comunicaciones seguras con tasas bajas de transmisión de datos y maximización de la vida útil de sus baterías, bajo consumo); RFID (sistema remoto de almacenamiento y recuperación de datos con el propósito de transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio.



WLAN (Wireless Local Area Network)
En las redes de área local podemos encontrar tecnologías inalámbricas basadas en HiperLAN (del inglés, High Performance Radio LAN), un estándar del grupo ETSI, o tecnologías basadas en Wi-Fi, que siguen el estándar IEEE 802.11 con diferentes variantes.



WWAN (Wireless Wide Area Network, Wireless WAN)
En estas redes encontramos tecnologías como UMTS (Universal Mobile Telecommunications System), utilizada con los teléfonos móviles de tercera generación (3G) y sucesora de la tecnología GSM (para móviles 2G), o también la tecnología digital para móviles GPRS (General Packet Radio Service).


Características


Según el rango de frecuencias utilizado para transmitir, el medio de transmisión pueden ser las ondas de radio, las microondas terrestres o por satélite, y los infrarrojos, por ejemplo. Dependiendo del medio, la red inalámbrica tendrá unas características u otras:


Ondas de radio: las ondas electromagnéticas son omnidireccionales, así que no son necesarias las antenas parabólicas. La transmisión no es sensible a las atenuaciones producidas por la lluvia ya que se opera en frecuencias no demasiado elevadas. En este rango se encuentran las bandas desde la ELF que va de 3 a 30 Hz, hasta la banda UHF que va de los 300 a los 3000 MHz, es decir, comprende el espectro radioelectrico de 30 - 3000000 Hz


Microondas terrestres: se utilizan antenas parabólicas con un diámetro aproximado de unos tres metros. Tienen una cobertura de kilómetros, pero con el inconveniente de que el emisor y el receptor deben estar perfectamente alineados. Por eso, se acostumbran a utilizar en enlaces punto a punto en distancias cortas. En este caso, la atenuación producida por la lluvia es más importante ya que se opera a una frecuencia más elevada. Las microondas comprenden las frecuencias desde 1 hasta 300 GHz.


Microondas por satélite: se hacen enlaces entre dos o más estaciones terrestres que se denominan estaciones base. El satélite recibe la señal (denominada señal ascendente) en una banda de frecuencia, la amplifica y la retransmite en otra banda (señal descendente). Cada satélite opera en unas bandas concretas. Las fronteras frecuenciales de las microondas, tanto terrestres como por satélite, con los infrarrojos y las ondas de radio de alta frecuencia se mezclan bastante, así que pueden haber interferencias con las comunicaciones en determinadas frecuencias.


Infrarrojos: se enlazan transmisores y receptores que modulan la luz infrarroja no coherente. Deben estar alineados directamente o con una reflexión en una superficie. No pueden atravesar las paredes. Los infrarrojos van desde 300 GHz hasta 384 THz


Aplicaciones


Las bandas más importantes con aplicaciones inalámbricas, del rango de frecuencias que abarcan las ondas de radio, son la VLF (comunicaciones en navegación y submarinos), LF (radio AM de onda larga), MF (radio AM de onda media), HF (radio AM de onda corta), VHF (radio FM y TV), UHF (TV).


Mediante las microondas terrestres, existen diferentes aplicaciones basadas en protocolos como Bluetooth o ZigBee para interconectar ordenadores portátiles, PDAs, teléfonos u otros aparatos. También se utilizan las microondas para comunicaciones con radares (detección de velocidad o otras características de objetos remotos) y para la televisión digital terrestre


Continuar Leyendo...