Nuevas tecnologías de banda ancha
Nuevas tecnologías de banda ancha ¿Que fuerzas impulsan hacia tecnologías de gran ancho de banda? A grandes rasgos: el tráfico de datos está creciendo mucho más rápidamente que el de voz, debido al impulso experimentado por el proceso distribuido. El usuario final, que opera sobre una computadora o una estación de trabajo personal, dispone de una gran capacidad de potencia de procesamiento. Si a este usuario se le proporciona un marco adecuado de delegación de responsabilidades, puede generar un significativo caudal de información de datos, imagen, gráficos y textos. Podemos pensar también en bases de datos multimedia distribuidas, con acceso durante las horas del día más cargadas. Otros ejemplos emanan de la supercomputación mediante la interconexión de estaciones de trabajo por medio de canales de alta velocidad, las redes corporativas que transportan de la forma más rápida posible la información de los procesos de las empresas con sus clientes, proveedores o colaboradores y las videoconferencias. Por estas razones, entre otras muchas, la tecnología está evolucionando para transportar eficientemente información de distintos medios a velocidades superiores a 150 Mbps. Para satisfacer este requisito se ha desarrollado el concepto de "conmutación rápida de paquetes", del que, seguidamente, se realizan unos breves comentarios. El concepto genérico de conmutación rápida de paquetes se incluyen dos grandes grupos: La retransmisión de tramas (frame relay). La retransmisión de celdas (cell relay). Retransmisión de tramas (frame relay) Los medios de transmisión actuales poseen una tasas de error muy bajas, por lo que el principio de operación de frame relay es muy sencillo, ya que la red actúa como si no existieran errores debido a la poca probabilidad de que estos se produzcan. Cuando una trama llega a un nodo, este, automáticamente, la envía a su destino, una vez analizada la cabecera, ¿qué ocurre si eventualmente se produjese un error? Pues sencillamente se interrumpe la transmisión. Si la trama todavía está en la red, los nodos se encargan de eliminarla. En caso de que la trama ya hubiese sido recibida en su destino, es el Equipo Terminal de Datos, el que mediante los protocolos de nivel superior se encarga de solicitar la retransmisión. Resumiendo, las características tecnológicas más importantes de frame relay son: El frame relay no está recomendado para voz y vídeo, pues la calidad de la transmisión de estas señales sería fuertemente degradada debido a la longitud variable y potencialmente grande de las tramas. Retransmisión de celdas (cell relay) La retransmisión de celdas, es una tecnología para retransmitir datos, voz, imagen y vídeo en unidades de información de longitud fija denominadas celdas. Esta tecnología se utiliza en Redes Digitales de Servicios Integrados de Banda Ancha (RDSI-BA o BISDN) y en las redes de área metropolitana (MAN), como las definidas en el proyecto IEEE 803.6 y denominadas DQDB, Dual Queue Dual Bus. La transferencia de la información se realiza mediante la técnica denominada Modo de Transferencia Asíncrono, MTA o ATM a nivel internacional. Con esta técnica, la información se empaqueta en grupos de octetos de longitud fija, denominados celdas. Cada celda se compone de un total de 53 octetos, de los cuales 5 son de cabecera. La conmutación de las celdas se realiza por hardware para que la latencia sea mínima, de orden de microsegundos, y opera mediante circuitos virtuales. En la cabecera de cada celda hay una indicación explícita del circuito virtual e incluso de otro concepto denominado trayecto virtual a los cuales la celda está asociada. Con ello se posibilita una asignación flexible y dinámica del ancho de banda disponible entre los canales virtuales que en cada momento se precisan. El término asíncrono hace referencia al hecho de que las celdas asignadas a una misma conexión o circuito virtual, pueden mostrar una recurrencia irregular, puesto que las celdas se asignan en función de la demanda. Hoy en día nadie se sorprende al contemplar como las personas se comunican desde su automóvil o simplemente utilizando radioteléfonos portátiles. Estos últimos ofrecen obvias ventajas con respecto al radioteléfono "fijo" instalado en el automóvil, ya que este último, con un "kit" de adaptación se puede usar como equipo portátil o como equipo para el coche. Por ello, hay dos aspectos a tener en cuenta, la evolución de las comunicaciones móviles, el peso de los equipos portátiles y la autonomía de la batería. Con respecto al tamaño y al peso, la única barrera por el momento insalvable es el teclado, ya que, al igual que ocurre con las calculadoras de bolsillo, unas teclas demasiado pequeñas hacen incómoda su utilización. La tendencia en este momento es disponer de equipos portátiles del tamaño de una tarjeta y de gran autonomía, con lo que se evitaría la excesiva dependencia de los equipos actuales del cargador de batería. Por otro lado, y para el entorno de oficinas, se están implantando lo que se denominan "centralitas sin hilos". Su principio de funcionamiento es el siguiente: a la centralita se conectan equipos de radio de pequeña potencia. Siguiendo el concepto de la telefonía celular, a cada equipo de radio le corresponde una zona de cobertura denominada por su pequeño tamaño, microcélula. De esta manera, los usuarios disponen, adicionalmente a la terminal convencional, de pequeños radioteléfonos portátiles con las mismas prestaciones que el teléfono de mesa. Esta tecnología es conocida internacionalmente como CT (Cordless Telephone) o telefonía sin hilos. Otra etapa en la telefonía móvil es el de realizar una estructura que evite que el usuario tenga que cambiar de equipo en función del entorno en que se halle. Con ello se haría una contribución al famoso concepto de aldea global. El usuario de las telecomunicaciones estaría asociado a una red mundial y no dependería del equipo o sistema utilizado. Es decir, las redes futuras reconocerían al usuario de una manera personalizada y éstos podrían disponer de las prestaciones de la red en todo su ámbito de cobertura. A esta red se le conoce como PCN (Personnel Communications Network). En definitiva, la evolución de las comunicaciones móviles supondrá un salto espectacular en las comunicaciones en general tal que, como la sociedad está demandando, la ubicación de las personas no será un elemento determinante para el negocio, el acceso a la información o, simplemente, el propio desarrollo personal. Redes heterogéneas Una red heterogénea está constituida por equipos de diversos fabricantes y diversas arquitecturas, desde SNA hasta TCP/IP. Los requisitos que debería cumplir una red heterogénea son, fundamentalmente: · · Capacidad de proceso transaccional distribuido. Es un caso particular del anterior, en el que las aplicaciones son transaccionales, es decir, estructuradas en conjuntos de mensajes que pueden tratarse independientemente. · · Gestión de red y del sistema integrada. Desde un punto focal se debe poder conocer la situación y controlar los elementos de un sistema. El desarrollo de las computadoras personales, las redes de área local y las minicomputadoras, ha potenciado una fuerte evolución de las redes descentralizadas y distribuidas, dando lugar a la concepción de que una red teleinformática es una computadora distribuida, de ahí la famosa expresión "La computadora es la red". Las aplicaciones distribuidas se basan en los conceptos de cooperación y compartición de recursos a través de la red. Una aplicación distribuida es una aplicación que utiliza o accede a recursos de varios sistemas. Si bien el componente económico es importante, existen razones verdaderamente funcionales que han creado la necesidad de distribuir procesos: servidores de comunicaciones, servidores de archivos, servidores de supercomputación, son ejemplos evidentes de la conveniencia de distribuir funciones. Otra característica interesante que proporcionan los sistemas distribuidos es la fiabilidad. Un sistema distribuido puede construirse de forma que sea más fiable que un sistema centralizado, al no depender de un solo nodo y facilitar la replicación de funciones y de datos en los distintos nodos de la red. En relación con las actividades de normalización, podemos decir, a título de ejemplo, que la aplicación de correo electrónico, X.400, en OSI es distribuida. Al incrementarse la complejidad de las redes se hace necesario el disponer de potentes sistemas de gestión de red que proporcionen herramientas que permitan a los administradores un control relativamente sencillo de todas las operaciones relacionadas con las redes. La gestión de red, por otra parte, debe ser consistente con la gestión total del sistema, comprendiendo procesadores, memorias, bases de datos y aplicaciones. Por otra parte, la expansión de redes heterogéneas y las redes integradas de voz, datos y vídeo demanda una mayor exigencia a los requisitos de gestión de red, debido a la complejidad de dichas redes. En lo que respecta a los procesos de normalización, en la actualidad las redes heterogéneas se gestionan normalmente con gestión de red TCP/IP (SNMP) e incluso con gestión de red SNA que, es un estándar "de facto" en algunos escenarios. Historia de las Comunicaciones Desde el comienzo de la historia de la humanidad, uno de los factores que han constituido y constituye un elemento vital para la evolución y el desarrollo de la humanidad es la comunicación. Las Telégrafo, que permitió diversos tipos de comunicaciones digitales utilizando códigos como el Morse inventado por Samuel F. B. Morse en 1820. Morse comenzó a estudiar las comunicaciones en 1830 teniendo preparada una máquina en 1835 compuesta en el emisor por un conjunto de piezas con dientes correspondientes a las letras y las cifras que ensambladas para formar un mensaje y pasadas a través del correspondiente dispositivo, provocaban las sucesivas aperturas y cierres de un interruptor que producía la señal enviada por la línea. En el receptor, un electroimán recibía dicha señal y producía el desplazamiento de un lápiz que escribía en el papel la forma de la señal con la que se podía descifrar el mensaje recibido. En 1855, Charles Wheatstone inventó el formato de una cinta junto con la perforadora correspondiente que permitía el envío y recepción de mensajes en código Morse en modo off-line, es decir, sin que un operador se encuentre permanentemente pendiente de la transmisión y recepción de los mensajes telecomunicaciones comenzaron en 1830 con la utilización del. En 1874, el francés Emile Baudot, inventó el telégrafo múltiple que permitía el envío de varios mensajes por la misma línea. Se conectaban varios manipuladores de cinco teclas a una misma línea a través de un distribuidor que repartía el tiempo entre los distintos usuarios. En el receptor existía un distribuidor similar al del transmisor y sincronizado con él, repartía los mensajes entre distintas impresoras. Más tarde, en 1876 Alexander Graham Bell inventó el Teléfono con el que comenzó la comunicación de la voz a distancia. Este invento hizo que rápidamente se unieran por cable muchas ciudades y dentro de ellas muchas empresas particulares, lo cual facilitó mucho la utilización de otros medios de comunicación posteriores que aprovecharon las propias líneas telefónicas. Con la aparición de máquinas de escribir que incorporaban relés para la activación de la escritura, durante la Primera Guerra Mundial, E.E. Kleinschmidt desarrolló un sistema de transmisión que no requería de operadores en continua atención. Este sistema hizo posible la aparición en 1910 del Teletipo o teleimpresor, que permitió el envío de mensajes a distancia utilizando el código Baudot creado por Emile Baudot en 1874. Ya a partir de 1950, con la aparición del módem, comenzaron los primeros intentos de transmisión de datos entre computadoras en aplicaciones de gestión, pero fue en la década de los sesenta, y fundamentalmente en la de los setenta, cuando se implantó definitivamente la conexión a distancia de todo tipo de computadoras y periféricos. El primer proyecto importante que incorpora técnicas teleinformáticas fue el SAGE (Service Automatic Ground Environment) desarrollado por las Fuerzas Aéreas de los Estados Unidos de América en 1958. En la década de los sesenta aparecen, por un lado, los lenguajes de programación interactivos y por otro, los sistemas operativos conversacionales que, junto a las tecnologías de conmutación de paquetes y los satélites de comunicaciones, propiciaron los primeros pasos para la verdadera unión entre las telecomunicaciones y la informática. En la década de los setenta, marcada por una gran evolución en la conectividad, aparecen las redes de computadoras, los protocolos y las arquitecturas teleinformáticas. En 1971 aparece la red ARPANET, fundada por la organización DARPA (Defense Advanced Research Projects Agency) que ha dado origen a la red Internet que actualmente integra a las más importantes instituciones académicas, de investigación y desarrollo que existen en el mundo. En esta red se desarrolló el conjunto de protocolos denominados TCP/IP que han ejercido influencia en las redes teleinformáticas. Esta década de los setenta se caracteriza también por el gran auge que toma la normalización. En 1976, el Comité Consultivo Internacional Telefónico y Telegráfico (CCITT) normalizó las redes de conmutación de circuitos y las redes de conmutación de paquetes. En 1977, la Organización de Estándares Internacionales modela y normaliza la interconexión de computadoras creando el Modelo Básico de Referencia para la Interconexión de Sistemas Abiertos (OSI), que fue publicado años después. El final de la década de los setentas viene marcada, fundamentalmente, por la aparición en 1978 de las Redes de Área Local (LAN) que permiten la interconexión entre equipos informáticos en un entorno reducido. La década de los ochenta, con la popularización de las Computadoras Personales, ha marcado un desarrollo definitivo en el campo tele-informático y lo ha popularizado. También en esta década aparecen las Redes Digitales para dar servicio especializado a usuarios que requieran la integración de información compuesta por texto, datos, imagen y voz. Actualmente, en Telecomunicaciones se tiende al abaratamiento de la utilización de las redes, así como a nuevas posibilidades de transmisión proporcionadas por las Redes Digitales de Servicios Integrados de Banda Ancha que operan a gran velocidad. Una línea de comunicación tiene dos sentidos de transmisión que pueden existir simultáneamente o no. Por este motivo, existen los siguientes modos de transmisión: La línea transmite en un solo sentido sin posibilidad de hacerlo en el otro. Esta modalidad se usa exclusivamente en casos de captura de datos en localizaciones lejanas o envío de datos a un dispositivo de visualización desde una computadora lejana. Dos ejemplos pueden ser los de captura de datos en estaciones meteorológicas y la transmisión de información a los señalizadores luminosos en las carreteras. La línea trasmite en los dos sentidos pero no simultáneamente. La línea transmite en los dos sentidos simultáneamente. Los movimientos de datos en el interior de una computadora se realizan mediante un conjunto de bits que configuran una palabra de computadora, siendo tratados simultáneamente, es decir, en paralelo. Para una transmisión de datos a larga distancia realizándose en paralelo, serían necesarios tantos circuitos como bits. Debido a que resulta demasiado costosa la implementación de la trasmisión de datos a larga distancia en paralelo, se utiliza la transmisión en serie, enviándose los bit uno detrás de otro. Esta transmisión tiene la desventaja de ser más lenta que la transmisión en paralelo, debido a su característica de secuenciamiento de bits. Se llama sincronización al proceso mediante el que un emisor informa a un dispositivo receptor sobre los instantes en que van a transmitirse las correspondientes señales. Debe reconocerse el comienzo y el fin de cada bit. Debe reconocerse el comienzo y el final de cada unidad de información, como puede ser un carácter o una palabra transmitida. Es una técnica que consiste en el envío de una trama de datos (conjunto de caracteres) que configura un bloque de información comenzando con un conjunto de bits de sincronismo (SYN) y termina con otro conjunto de bits de final de bloque (ETB). En este caso, los bits de sincronismo tienen la función de sincronizar los relojes existentes tanto en el emisor como en el receptor, de tal forma que éstos controlan la duración de cada bit y carácter. Consiste en acompañar a cada unidad de información de un bit de arranque (start) y otro de parada (stop). Esto se consigue manteniendo la línea a nivel 1, de tal forma que el primer 0 es el bit de arranque y a continuación se transmiten los bits correspondientes al carácter, terminando la transmisión con un bit 1, cuya duración mínima sea entre una y dos veces la de un bit. La línea se mantendrá en este nivel hasta el comienzo de la transmisión del siguiente carácter. En la década de los sesenta, las organizaciones o empresas comenzaron a automatizar la gestión de su información utilizando un gran sistema de proceso de datos, desde donde se daban todos los servicios a los distintos departamentos de la organización o empresa. En la década de los setenta, con la aparición de la minicomputadoras, dio comienzo la informática departamental, donde cada sección o departamento era autónomo en el uso de su sistema informático. A finales de los setenta y en los primeros años de la década de los ochenta, la explosión de la oferta de minicomputadoras en el mercado, hizo que éstas se introdujeran en la pequeña y mediana empresa. En esta misma época también apareció la computadora personal de IBM, que dio paso a otras computadoras de diversas marcas y con ellas empezó una nueva era (la de las microcomputadoras). En poco tiempo, las computadoras personales se integraron en la estrategia informática de las empresas, incorporándose paulatinamente en todos los departamentos. Son muchas las organizaciones que comienzan a introducir computadoras personales en sus sistemas de información aumentando progresivamente el número de aplicaciones que utilizan. Este aumento hizo que la coherencia de los datos empezara a ser difícil de controlar. Para abordar este problema surge el concepto de Red de Área Local (RAL o Local Area Network-LAN), si bien con anterioridad ya existían conexiones entre minicomputadoras, microcomputadoras y sus terminales, aunque el tema no estaba planteado de forma sistemática. El desarrollo de las redes de área local comenzó en los primeros años de la década de los ochenta. La facilidad de compartir datos y recursos en un grupo de trabajo ha producido un cambio fundamental en las estrategias informáticas de las empresas. Por este motivo, las redes de área local hoy en día cuentan con un número de adeptos cada vez mayor. Por otra parte, la posibilidad de conexión entre redes de área local y las redes de área extensa, ofrece unas posibilidades de conectividad importantes para las organizaciones o empresas. Una Red de Area Local es un conjunto de elementos físicos y lógicos que proporcionan interconexión a una gran variedad de dispositivos de comunicación de información en un área privada restringida (recinto, edificio, campus, etc.) En esta definición formal aparecen los siguientes elementos con significado propio: conjunto de elementos físicos y lógicos que proporcionan interconexión, es decir, son un conjunto de elementos que configuran una red de comunicación que facilita la transmisión de bits entre un dispositivo y otro. Por otra parte, se habla de una gran variedad de dispositivos de comunicación, esto es, a la red pueden conectarse dispositivos de todo tipo tales como computadoras, terminales, periféricos, sensores, aparatos telefónicos, equipos facsímil, etc. Otro aspecto incluido en la definición es el ámbito geográfico de la red local que, en general, es pequeño y no sale más allá de los límites de un departamento situado en un edificio o conjunto de edificios próximos. Por último cabe destacar el carácter privado de una red local que, generalmente, no necesita otros medios de comunicación suministrados por empresas o redes de comunicación. Las características más representativas de una red de área local son las siguientes: Las ventajas más significativas que proporcionan las redes de area local son: Entre las desventajas frente a un único sistema multiusuario se pueden citar las siguientes: · · Por la naturaleza distribuida de una red local, la gestión de la red en cuanto a control de accesos, rendimientos y fiabilidad es más compleja. · · Integridad, seguridad y privacidad de la información. En todo sistema distribuido pueden surgir problemas de este tipo. El estado actual del hardware y software de redes de área local hace que las desventajas expuestas puedan paliarse mediante el empleo de las técnicas adecuadas, normalmente realizadas por programas de comunicaciones, gestión de red y seguridad. La información que maneja una computadora es de origen digital, encontrándose codificada a partir de un alfabeto de dos símbolos que se corresponden con 1 y 0 o, lo que es lo mismo, presencia o ausencia de una señal eléctrica. Para la transmisión de esta información entre dispositivos distintos a larga o corta distancia debe utilizarse un medio físico que asegure su correcta recepción en el destino. Existen dos tipos de medios de transmisión de datos: La topología de una red de área local define la distribución de cada estación en relación a la red y las demás estaciones. Las topologías son criterios determinantes para la elección de las redes de área local, la reducción del costo de encaminamiento, la fiabilidad o tolerancia a fallos y su facilidad para localizarlos, y por último la facilidad de su instalación y reconfiguraciones futuras. En la topología en estrella todas las estaciones están conectadas mediante enlaces bidireccionales a una estación o nodo central que controla la red. Este nodo central asume las funciones de gestión y control de las comunicaciones proporcionando un camino entre cada dos estaciones que deseen comunicarse. La principal ventaja de la topología en estrella es que el acceso a la red, es decir, la decisión de cuando una estación puede o no transmitir, se halla bajo control de la estación central. Además la flexibilidad en cuanto a configuración, así como la localización y control de fallos es aceptable al estar todo el control en el nodo central. El gran inconveniente que tiene esta topología es que si falla el nodo central. Toda la red queda desactivada. Otros pequeños inconvenientes de este tipo de red son el costo de las uniones físicas puesto que cada estación está unida a la unidad central por una línea individual, y además, las velocidades de transmisión son relativamente bajas. En esta topología todas las estaciones se conectan a un único medio bidireccional lineal o bus con puntos de terminación bien definidos. Cuando una estación transmite, su señal se propaga a ambos lados del emisor, a través del bus, hacia todas las estaciones conectadas al mismo, por este motivo, al bus se le denomina también canal de difusión. La mayor parte de los elementos de las redes en bus tienen la ventaja de ser elementos pasivos, es decir, todos los componentes activos se encuentran en las estaciones por lo que una avería en una estación no afecta más que a ella misma. Por otra parte, un inconveniente de este tipo de redes es que si falla el propio bus, queda afectada toda la red. Las principales ventajas que tiene esta topología son la modularidad, es decir, la facilidad de añadir y quitar estaciones. Entre las desventajas se puede citar el hecho de que varias estaciones quedan desconectadas al fallar un tramo del bus. Es una variante de la topología en bus, consistente en un bus principal denominado tronco del que parten varios buses secundarios denominados ramas, cada una de las cuales es capaz de admitir varias estaciones. Al igual que en la topología en bus, las señales se propagan por cada ramal de la red y llegan a todas las estaciones. Además de las ventajas e inconvenientes de las redes en bus, la red en árbol tiene una mayor adaptabilidad al entorno físico donde se instala la red, con lo que el costo de cableado es aún menor. El anillo consiste en una serie de repetidores conectados entre sí mediante un único enlace de transmisión unidireccional que configura un camino cerrado. La información se transmite secuencialmente de un repetidor al siguiente a lo largo del anillo, de tal forma que cada repetidor regenera la señal que recibe y la retransmite al siguiente, salvo que la información esté dirigida a él, en cuyo caso la recibe en su memoria. Los repetidores constituyen un elemento activo de la red, siendo sus principales funciones las de contribuir al correcto funcionamiento del anillo ofreciendo todos los servicios necesarios y proporcionar el punto de acceso a las estaciones de la red. Normalmente los repetidores están integrados en las computadoras personales y en las estaciones de trabajo. Las redes en anillo permiten un control eficaz, debido a que, en cada momento, se puede conocer en que trama está circulando la señal, puesto que se sabe la última estación por donde ha pasado y la primera a la que todavía no ha llegado. La desventaja fundamental es la falta de fiabilidad. Un fallo en el anillo inhabilitaría todas las estaciones. Es una variante de la red en anillo que trata de solucionar los problemas de la escasa fiabilidad que tienen estas redes facilitando algunas tareas como la instalación, mantenimeinto y la reconfiguración. En general, se trata de topologías alternativas en las que la configuración física es distinta a la de anillo pero conserva la misma estructura lógica. El ejemplo más claro de este tipo de redes es el ofrecido por la red de pase de testigo en anillo (Token-Ring) consistente en una configuración física en estrella con una configuración lógica en anillo. La técnica de sondeo se basa en la relación maestro-esclavo entre el nodo central y las demás estaciones del anillo o del bus. En el caso de la topología en anillo (bucle) para que un nodo pueda transmitir debe recibir permiso del nodo central a través de un mensaje de sondeo. Este permiso va pasando secuencialmente de estación en estación a lo largo de todo el anillo. Cada estación puede transmitir cuando recibe el permiso y encuentra el anillo vacío. Al finalizar su transmisión pasa el permiso a la estación siguiente. El inconveniente de esta técnica reside en la necesidad de que la comunicación entre dos nodos cualesquiera pase por la estación central. En la topología en bus nos encontramos con la técnica de sondeo en la que por turnos, la estación central pregunta a cada estación si tiene necesidad de transmitir información. En caso afirmativo, la estación preguntada recibe permiso para transmitir, de tal forma que la información pasará por la estación central para, desde ella, dirigirse a la estación destino. La diferencia con la técnica anterior estriba en que, en el caso anterior, el permiso circulaba por el anillo de estación en estación mientras que, en este caso, es necesario el envío de la pregunta sondeo para cada estación individualmente. Se trata de un método sencillo de llevar a la práctica y donde no se producen conflictos entre estaciones que desean transmitir. Además se trata de un método en el que pueden incluirse prioridades con facilidad, haciendo que las estaciones con mayor prioridad sean interrogadas con mayor frecuencia que el resto. Estas técnicas centralizadas tienen el inconveniente ya mencionado de que, si falla la estación central, toda la red se queda sin servicio. Además pueden aparecer turnos de espera excesivamente largos si el número de estaciones es grande. Estas técnicas se consideran como una forma de interrogación distribuida en la que todas las estaciones de la red intervienen en la circulación de un paquete especial de información que recibe el nombre de testigo (Token) que indica, a la estación que lo recibe, que tiene el medio de transmisión a su disposición para efectuar una transmisión. Estas técnicas pueden utilizarse tanto en las redes con topologías en bus como en las redes en anillo. En esta técnica, las estaciones del bus o árbol forman un anillo lógico, es decir, a las estaciones se les asigna una posición lógica en una secuencia ordenada y circular. Cada estación conoce la identidad de su estación antecesora y de su sucesora dentro del anillo lógico. En este caso, la ordenación física es totalmente independiente e irrelevante a la ordenación lógica. La estación que recibe el testigo tiene garantizado el derecho de acceso al medio de transmisión de tal forma que al finalizar su transmisión o terminar el tiempo asignado, pasará el testigo a la siguiente estación en la secuencia lógica. Las redes con pase de testigo proporcionan mejores posibilidades de gestión de red. Esta técnica se basa en una pequeña trama o testigo que circula a lo largo del anillo. Un bit indica el estado del anillo (libre u ocupado) y cuando ninguna estación está transmitiendo, el testigo simplemente circula por el anillo pasando de una estación a la siguiente. Cuando una estación desea transmitir, espera a recibir el testigo modificando el bit de estado del anillo de libre a ocupado e inserta a continuación la información a enviar junto con su propia dirección y la de la estación destino. El paquete de datos circula por el anillo hasta llegar a la estación receptora que copia su contenido y lo vuelve a poner en circulación incluyendo una marca de recepción, de tal forma que, cuando vuelve a llegar a la estación emisora, ésta lo retira de la red y genera un nuevo testigo libre. La principal ventaja de esta técnica es su alto rendimiento. Su adaptabilidad a la topología en anillo y el ser un método de transmisión unidireccional hacen que su eficiencia sea mayor que las redes que utilizan el método de pase de testigo en bus. Entre sus desventajas se encuentran la disminución de la eficiencia en caso de baja carga del sistema debido a la circulación del testigo y los procesos de mantenimiento de la red. Estas técnicas se basan en que las estaciones solicitan transmitir de forma aleatoria y no existe control para determinar el orden de transmisión, por tanto, todas las estaciones deben competir por el derecho al acceso. La técnica de acceso aleatorio múltiple con detección de portadora y de colisión es el método más usado en las topologías en bus y árbol. Esta técnica consiste en que una estación que desee transmitir, primero escucha el medio para determinar si hay otra transmisión en proceso. Si es así, la estación tras un período de espera lo vuelve a intentar hasta que encuentre el medio de transmisión libre. Cuando el medio está libre, la estación emisora vuelve a retransmitir la información hasta que la confirmación se produzca. Uno de los motivos por el que una información no llegue a su destino puede ser la aparición de colisiones en las que varias estaciones solicitan transmitir al mismo tiempo. Otra técnica que mejora la anterior es la conocida como acceso múltiple con detección de portadora y detección de colisiones (Carrier Sense Multiple Access/Collision Detection-CSMA/CD) consistente en controlar la aparición de colisiones añadiendo a la técnica CSMA las siguientes reglas: Tras esperar un determinado período de tiempo, se vuelve a intentar la transmisión usando CSMA. Se definen los protocolos de comunicación dentro del contexto de arquitectura de red en niveles. Cada nivel especifíca un protocolo para manejar subsistemas o funciones del proceso de comunicación. A continuación se enumeran los niveles de protocolos de red más comunes para la industria : Los protocolos existen en cada nivel para realizar algunas de las tareas que afectan a la comunicación entre los sistemas, mientras los dos sistemas operen con protocolos similares. Aunque típicamente las pilas de protocolo tienen unos siete niveles, es práctico agruparlas dentro de las categorías siguientes. Los protocolos de aplicación abarcan los niveles de aplicación, presentación y sesión, que son fundamentalmente usuarios de servicios de comunicaciones de red y proporcionan interacción entre aplicaciones e intercambio de datos. Los protocolos de comunicación genéricos incluyen aquellos enumerados aquí, tanto como las Llamadas a procedimiento remoto (RPC's, Remote Procedure Calls), los sistemas de procesamiento de transacciones y los sistemas de mensajería. Los protocolos de transporte proporcionan servicios de distribución de datos orientados a la conexión a través de redes. Fundamentalmente proporcionan intercambio de datos extremo a extremo en los cuales se mantienen sesiones o conexiones entre sistemas para el intercambio secuencial y fiable de los datos. Los protocolos de transporte incluyen aquellos aquí enumerados: Los protocolos de nivel red proporcionan servicios para los sistemas de comunicaciones. Manejan la información de direccionamiento y encaminamiento, comprueban los errores y las peticiones de retransmisión. También proporcionan los procedimientos para el acceso a la red, cuando la red usada los especifíca en concreto (como Ethernet, anillo con testigo y etc.). Entre los protocolos de red se incluyen los siguientes: El protocolo X.25 es una recomendación del CCITT (ITU) que define las conexiones de terminales y de computadoras a las redes de conmutación de paquetes. Las redes de conmutación de paquetes encaminan los paquetes de datos a través de una red a los nodos destinos. X.25 es un servicio de conmutación de paquetes bien conocido que tradicionalmente se usa para la conexión de terminales remotos a sistemas anfitriones (host). El servicio proporciona conexiones cualquiera a cualquiera para usuarios simultáneos. La interfaz X.25 soporta velocidades de línea de hasta 64 kpbs aunque una parte importante del rendimiento es la sobrecarga para la corrección de errores. El CCITT revisó la norma en 1992 y aumentó la velocidad a 2 Mbps. X.25 adolece de presentaciones pobres y no es aceptable para la mayoría de las aplicaciones en tiempo real LAN o LAN. Sin embargo, X.25 es muy conocido, entendido y aceptado para el acceso a terminales o a computadoras remotas siempre y cuando el tráfico sea ligero. X.25 puede ser el único camino fiable para establecer enlaces de red internacionales con países con sistemas telefónicos no fiables. Casi todos los países tienen servicios X.25. Por el contrario, la obtención de circuitos dedicados fiables en algunos países es casi imposible. Los protocolos TCP/IP comenzaron a utilizarse en ARPANET a partir del año 1971. En 1983 adoptan su estructura básica actual, como consecuencia de un proyecto financiado por DARPA para su utilización en entornos de sistemas operativos UNIX. Es por ello por lo que muchos mandatos y librerías TCP/IP proceden del mundo UNIX. Si bien los protocolos TCP/IP comenzaron a utilizarse en la red ARPANET, muy pronto se adoptaron para una segunda red denominada MILNET, segregada de ARPANET para aplicaciones militares. El conjunto de estas dos redes fué el embrión de la red Internet, que muy pronto se extendió a las redes de investigación y académicas más importantes del mundo. En la actualidad la arquitectura TCP/IP se utiliza en todo tipo de redes, tanto de área local como de área extensa. Ha sido adoptada por más de 160 fabricantes, si bien en muchos casos coexistiendo con las arquitecturas propias o "propietarias" como SNA o DNA. Por ello se ha convertido en un estándar "de facto" o de "hecho". De esta forma los protocolos TCP/IP han trascendido de los sistemas operativos UNIX y actualmente se utilizan con múltiples sistemas, como DOS, OS/2, MVS y OS/400 de IBM, VMS de DEC, etc. además de los que se basan en UNIX. TCP/IP es una familia de protocolos desarrollados para permitir la comunicación entre cualquier par de computadoras de cualquier red o fabricante, respetando los protocolos particulares de cada red individual. RDSI se declara a menudo como la interfaz pública para telefonía y telecomunicaciones del futuro, aunque ha tardado mucho en surgir. RDSI integra datos, voz y señales de vídeo un una línea digital telefónica. El punto importante es que lleva servicios digitales a todo tipo de casas u oficinas. Aunque la mayoría de las compañías telefónicas se han cambiado ya al cable óptico y a la transmisión digital para enlaces dentro de y entre ciudades, el "lazo local" que conecta a muchos usuarios domésticos y de oficinas a la central de conmutación de la compañía telefónica utiliza todavía técnicas analógicas de señalización. RDSI también normaliza los servicios suministrados a los abonados a nivel internacional, de esta manera proporciona una forma de crear redes internacionales. La norma RDSI original es la RDSI de banda estrecha. La nueva norma desarrollada llamada ISDN de banda ancha (ISDN-B) trabaja en la gama del megabit al gigabit. La RDSI de banda estrecha tiene una velocidad máxima de 2 Mbps y trabaja sobre cables de cobre. Ahora RDSI se ve como una tecnología adecuada para usuarios remotos que acceden desde LANs de su compañía y para algunas conexiones LAN a LAN. RDSI también puede manejar el tráfico de fax y por otra parte, proporciona un método económico de establecer enlaces digitales con oficinas remotas, hasta que las necesidades del tráfico requieran líneas dedicadas más caras. Los servicios que RDSI proporciona actúan en los niveles superiores de los protocolos, en lugar de con una conexión telefónica. Aquí se enumeran algunos de los servicios. Evolución de las comunicaciones móviles
Proceso distribuido y gestión de red
Proceso distribuido
Gestión de red
Simplex
Half Duplex
Full Duplex
Modos de transmisión
Transmisión en paralelo
Transmisión en serie
Formatos de transmisión
Sincronización por bit
Sincronización por carácter
Transmisión síncrona
Transmisión asíncrona
Redes
Características, ventajas y desventajas de las RAL
Medios de transmisión
Topologías
Las topologías más comunes en las redes de área local se citan a continuación: Topología en estrella
Topología en bus
Topología en árbol
Topología en anillo
Topología en anillo modificado
Polling
Pase de testigo (Token-Pass)
Pase de testigo en bus (Token-Bus)
Pase de testigo en anillo (Token-Ring)
Acceso Múltiple con Detección de Portadora (CSMA)
Niveles de Protocolos
Protocolos de Aplicación
Protocolos de Transporte
Protocolos de Red
Protocolo X.25 (Usado por telepac)
La arquitectura de conmutación de paquetes de X.25 tiene ventajas y desventajas. Los paquetes de información se encaminan a través de una red de malla, en función de la información que contenga la cabecera del paquete sobre la dirección destino. Los usuarios pueden conectarse con muchos lugares diferentes, a diferencia de las redes orientadas a circuitos donde existe un trayecto dedicado entre sólo dos puntos. Debido a que los paquetes viajan a través de los puertos compartidos de los encaminadores, es posible que se produzcan los retardos en la distribución. Los usuarios experimentan un acceso lento cuando más y más personas acceden a la red, aunque la mayoría de las redes pueden soportar el exceso de tráfico por el encaminamiento alrededor de las áreas congestionadas. Por contraposición, las redes orientadas a circuitos proporcionan un ancho de banda fijo entre dos puntos que no se acomoda a las ráfagas de tráfico que sobrepasen ese ancho de banda. Protocolo TCP/IP (Usado por INTERNET)
Los protocolos TCP/IP proporcionan a los usuarios de las redes unos servicios de comunicación de datos tales como : Red Digital de Servicios Integrados (RDSI)
0 comentarios