Ingenieria De Software



Stage 1: Information Strategy Planning. Concerned with top management goal and critical success factors. Concerned with how technology can be used to create new opportunities or competitive advantages. A high-level overview is created of the enterprise, its functions, data, and information needs.


Stage 2: Business Area Analysis. Concerned with what processes are needed to run a selected business area, how these processes interrelate, and what data is needed.


Stage 3: System Design. Concerned with how selected processes in the business area are implemented in procedures and how these procedures work. Direct end-user involvement is needed in the design of procedures.


Stage 4: Construction. Implementation of the procedures using, where practical, code generators, fourth-generation languages, and end-user tools. Design is linked to construction by means of prototyping.


Stage 1, information strategy planning, has taken from three to nine months in most enterprises. It is accomplished by a small team who study the enterprise and interview its management. Information strategy planning requires commitment from top management. A primary concern is that of strategic uses of technology: How can computing be used to make the enterprise more competitive? The results are interesting and stimulating to top management because they are concerned with how technology can be used as a weapon against competition. Diagrammed representations of the enterprise are created which challenge management to think about its structure, its goals, the information needed, and the factors critical for success. The information strategy planning process often results in identification of organizational and operational problems and solutions.


Stage 2, business area analysis, is done separately for each business area. A typical business area analysis takes about six months, depending on the breadth of the area selected. Several such studies for different business areas may be done by different teams simultaneously. Business area analysis does not attempt to design systems; it merely attempts to understand and model the processes and data required to run the business area.


Stage 3, system design, changes dramatically when design automation tools are used. with these tools, design work is accelerated because the design is created on a computer screen rather than at a drawing board with pencils and plastic templates. The designer can constantly edit the design, adding and changing blocks and links, cutting and pasting, and enhancing details. The computer provides details about data and processes, guides the designer, and verifies the design through integrity checks. The designer must create a well-structured design; the tools enforce this. The tools should require designs that provide a basis for code generation.


Stage 4, construction, follows when the computer constructs systems by employing a code generator and sometimes fourth-generation languages or decision-support tools.


It is important to note that the four-stage information engineering process described here requires that much more time be spent on planning and design than on execution. In traditional systems development, time and effort are heavily skewed to coding. This creates a “chicken-and-eggs” problems, miring I.S. professionals deeper into the development backlog: an endless cycle of poor planning feeding inadequate design, resulting in systems that do not meet business needs and require major revisions and maintenance (i.e., more coding). The lack of automated tools for systems development has aggravated this problem. A key objective of information engineering is to impose rules on analysis and design that are normal enough to direct the computer to generate code, thus freeing I.S. professional from the burden of coding. Systems development under the information engineering discipline attacks the backlog problems form two directions: Planning and rigor result in (1) better systems requiring less revision and maintenance, and (2) breakthroughs in applying computing power to code generation. Systems built under the information engineering discipline should then continue to evolve with business needs on an ongoing basis.



THE ENCYCLOPEDIA The heart of information engineering is an encyclopedia. The encyclopedia is a computerized repository which steadily accumulates information relating to the planning, analysis, design, construction, and later, maintenance of systems. Tools for computer aided systems engineering (CASE) and information engineering have employed two types of repository, a dictionary and an encyclopedia.


·        A dictionary contains names and descriptions of data items, processes, variables, and so on.

·        An encyclopedia contains this dictionary information and a complete, coded representation of plans, models, and designs, with tools for cross-checking, correlation analysis, and validation. The encyclpoedia stores the meaning represented in diagrams and enforces consistency within this representation. The encyclopedia “understands” the design, whereas a simple dictionary does not. (Box 1.3).


As the stages of information engineering progress, knowledge is gathered and stored in an encyclopedia. The concept of the encyclopedia is central to information engineering. The data models and process models, and planning information are stored in the encyclopedia, as well as facts, rules, and policies.


            A dictionary contains names and descriptions of data items, processes, variables, and so on. An encyclopedia contains complete coded representations of plans, models, and designs with tools for cross-checking, correlation analysis, and validation. Graphic representations are derived from the encyclopedia and are used to update it. The encyclopedia contains many rules relating to the knowledge it stores and employs rule processing, the artificial-intelligence technique, to help achieve accuracy, integrity, and completeness of the plans, models, and designs. The encyclopedia is thus a knowledgebase which not only stores development information but helps control its accuracy and validity.


            The encyclopedia should be designed to drive a code generator. The tool set helps the systems analyst build up in the encyclopedia the information necessary for code generation. To emphasize that the encyclopedia is an intelligent facility which uses rules (in the artificial-intelligence sense) to help achieve accuracy, integrity, and completeness of the plans, models, and designs, it is drawn through these books with the icon shown above.


            The encyclopedia stores the meaning represented in diagrams and enforces consistency within this representation. Graphic representations are derived from the encyclopedia and are used to update it by means of CASE tools screen is a facet of a broader set of knowledge which may reside in the encyclopedia. The encyclopedia normally contains far more detail than is on the diagram. This detail can be displayed in windows by mouse navigation around a hyperdiagram.


            At the top of the pyramid, the information in the encyclopedia relates to the strategic planning of the enterprise. The information engineering methodology at this level is more business planning than data processing planning. The intent is to anchor firmly the use of computers into the top management strategies for the enterprise, and to align system development priorities with business strategy priorities. Particularly important are the identification of opportunities by which technology can make the enterprise more competitive. Critical success factors are stored in the encyclopedia and related to other aspects of information system planning (as described in Book II). At the analysis level, data models and process models are built up in the encyclopedia.


            The design stage uses the information in the encyclopedia to help generate a design. Details of screens, dialogs, reports, program structures, and database structures are built up in the encyclopedia.


            In an integrated-CASE (I-CASE) toolset the encyclopedia drives a code generator. The goal of the design workbench is to collect sufficient information that code for the system can be generated. The generator should also generate database description code and job control language. It should generate a comprehensive set of documentation so that designers and maintenance staff and understand the system clearly. It is desirable to select tools that enable implementers to build or generate applications as quickly as possible using a computerized data model.


            A high-level overview of the data is created at the top level of the pyramid. This overview is a diagram of the entity types in the corporation and the relationships among these entities-an entity-relationship diagram. Later, details of the attributes are added and a fully normalized data model is built. This model is usually created for one business area at a time. It is part of the work of business area analysis, stage 2 of information engineering.


            The entities in and enterprise are identified during the first stage of information engineering. Initially, there is not attempt to identify attributes or to normalize the model. The initial requirement is an overview of the data across the entire enterprise (or the portion of it selected for study).


            Many corporations today have fully normalized data models. Preparing these models has been the task of data administrators. Corporations with data models are now linking them into the broader scope of information engineering. System design phase, the data structure is adapted to the capabilities of a specific database or file management system.



A principle of information engineering is that diagrams are the main form o communication between designers and planners and the encyclopedia. The diagrams are built and displayed on a workstation screen. The workstation interacts with analysts, planners, designers, and users to provide computer-aided design. Through means of zooming, windowing, nesting, and other computer techniques, the workstation can handle what would become, if drawn on paper excessively large diagrams.


            Diagrams are used for exploring the complex contents of the encyclopedia and for extracting useful components of a design from it. They are the input interface for adding to and modifying the encyclopedia.


            Engineering-like disciplines are based on formal techniques. Applying formal techniques to the complex, time-sensitive requirements of modern business is not practical without automated tools. Automated tools impose formality, increase the speed at which systems can be built and modified, and coordinate the vast amount of knowledge that must be collected and updated. Information collected at higher levels of the pyramid can be used automatically as analysts and implementers progress to the more detailed stages.





            An essential foundation block in information engineering is the data model. The logical representation stable data model, designed with formal techniques, is a keystone supporting other elements of the information engineering process.


            The word entity means anything about which we store information (e.g. a costumer, supplier, machine tool, employee, utility pole, airline seat, etc.)


            The entity types of interest to a corporation do not change much with time, nor do the associations among entity types. For each entity, certain attributes time. In practice, it has been found that certain computerized data modelling techniques have been successful in creating a stable, logical representation of data in an enterprise. 


            Although the data model is relatively stable, the procedures that use the model change frequently. It is desirable that processes be easily changed because a business needs to be dynamic, constantly striving for better procedures. In information engineering, stable (fully normalized) data models are built with the aid of computerized tools. Applications are built on top of the data models.


            At each stage of information engineering, the information gathered is stored in a highly structured fashion in the encyclopedia. This computerized repository of knowledge about the enterprise steadily grows. The knowledge in the encyclopedia is used to help top management in planning and setting priorities, and to help I.S. in performing detailed analysis and design and guiding end-user computing and code generation. The encyclopedia is designed so that the computerized knowledge of the corporation is easily updated.


            The encyclopedia-based tools are made as easy to use as possible through automated diagramming. The software guides the user in building the diagrams and entering the requisite information for each stage. The diagrams are easy to modify on the screen.


            The encyclopedia is a complex knowledgebase which stores many different types of rules relating to the data. The encyclopedia uses artificial intelligence techniques in its knowledge coordination to ensure that the requisite information is gathered, validated, and cross-coordinated.




The tools and techniques of the past have not had an engineering-like discipline and have not been integrated across all aspects of the pyramid. C.A.R. Hoare, professor of computing at Oxford University, describes the methodologies of conventional data processing as follows:


            The attempt to build a discipline of software engineering on such shoddy foundations must surely be doomed, like trying to base chemical engineering on phlogiston theory, or astronomy on the assumption of a flat earth.


            Information engineering recognizes that there is a formal and rigorous way to model data. Data models are built with the aid of computerized tools. In association with the data models, the processes of an enterprise are analyzed formally and linked to the data model. All systems created link to the computerized models of the enterprise and its data. These systems are created with fully structured techniques, again with computerized tools speeding up the process and enforcing discipline. Instead of an ad hoc gaggle of separately conceived applications built with spaghetti-like code, information engineering aims to produce a set of fully structured and easily modified systems based on common models of the enterprise and its data.


            In information engineering knowledge needs to be communicated to the encyclopedia via diagrams. The magnitude of the diagrammatic requirements checks to the diagrams. The computer stores the meaning of the diagrams rather than the pictorial image and so can cross-correlate different types of diagrams relating to the same design. There are many links between the meaning of different diagrams that can be checked with rule-processing techniques.


            In one Swiss bank an information engineering team was attempting to draw a diagram showing the procedures at a detailed level. It proved extremely difficult to find the requisite detail because the procedures were performed in computers. The staff who had created the computer system had left, and the staff who had conducted the procedures manually before computerization had also left. The computerized procedures had documentation but it was unstructured Swiss-language documentation that clearly did not represent how the programs worked today. Programmers often distrust external documentation and deviate from it when they are doing maintenance. The documentation slips into disuse. As programs grow old in an organization it is easy to use them but forget how their internals work. Their internals often have patches on top of patches on top of patches with no trustworthy documentation. One can imagine and enterprise 20 years form now, its computer programs immensely complex but nobody really understanding how they work.


            To prevent such a scenario, the enterprise needs to have its data and procedures represented in an encyclopedia, which in and automated environment take place by adjusting the design in the encyclpedia and regenerating code. The clearly structured knowledge in the encyclopedia is vital for understanding and modifying complex systems. The designs need to be displayable with graphics that are as easy to understand and modify as possible.





A particularly important characteristics of information engineering is that end users participate in each stage. At the top of the pyramid, top management is involved in establishing goals and critical success factors. Management helps determine what information is needed from computers and sets priorities for development. At the second level, senior end users help to create and validate the data models and process models. At the design sessions and often employ the easy-to-use graphic representation of specifications. Design merges into implementation as prototypes are created and uses. In an information center environment, the users may build their own systems, with the help of the information in the encyclopedia.



            Clear easy-to-understand diagrams are essential for end-user participation. Sessions with end users and management sometimes take place in a meeting room with a large-screen projector displaying the workstation screen. The styles of computerized diagramming need to be designed for end-user comprehension. A high level of creativity is often evident when end users learn the language of system design and are encouraged to invent how computers could help them streamline procedures, cut head count, expand sales, simplify work, or make better decisions.




            Since 1980 many languages have come into use which increases the speed of building systems or analyzing data. These languages are of a variety or types:


  • End-user languages, enabling users who are not professional programmers to query databases, generate reports, perform elaborate calculations, and create simple systems.
  • Decision-support languages, enabling users to build business models for decision making, manipulate spreadsheets, and generate charts.
  • Fourth-generation programming languages, enabling programs to be written with a fraction of number of lines of code and in a fraction of the time that would be needed with COBOL, PL/I, and so on.
  • Nonprocedural languages, which put a computer to work by stating what is wanted rather that how to do it.
  • Prototyping languages, which enable a prototype to be crated quickly and modified quickly, so that end users can employ it, react to it, and have it adjusted to their needs.
  • Rule-base languages, for creating expert systems or other systems where the drawing of inferences from many rules is need.


A goal of information engineering is that high-productivity languages should be used wherever practical for prototyping, end-user computing, speeding up professional I.S. development, and making maintenance easier Among the most powerful productivity aids are code generators, which should be driven directly from the screen of the CASE tool.

Nuevas tecnologías de banda ancha

Nuevas tecnologías de banda ancha

Nuevas tecnologías de banda ancha


¿Que fuerzas impulsan hacia tecnologías de gran ancho de banda? A grandes rasgos: el tráfico de datos está creciendo mucho más rápidamente que el de voz, debido al impulso experimentado por el proceso distribuido. El usuario final, que opera sobre una computadora o una estación de trabajo personal, dispone de una gran capacidad de potencia de procesamiento. Si a este usuario se le proporciona un marco adecuado de delegación de responsabilidades, puede generar un significativo caudal de información de datos, imagen, gráficos y textos. Podemos pensar también en bases de datos multimedia distribuidas, con acceso durante las horas del día más cargadas. Otros ejemplos emanan de la supercomputación mediante la interconexión de estaciones de trabajo por medio de canales de alta velocidad, las redes corporativas que transportan de la forma más rápida posible la información de los procesos de las empresas con sus clientes, proveedores o colaboradores y las videoconferencias. Por estas razones, entre otras muchas, la tecnología está evolucionando para transportar eficientemente información de distintos medios a velocidades superiores a 150 Mbps. Para satisfacer este requisito se ha desarrollado el concepto de "conmutación rápida de paquetes", del que, seguidamente, se realizan unos breves comentarios. El concepto genérico de conmutación rápida de paquetes se incluyen dos grandes grupos:


La retransmisión de tramas (frame relay).

La retransmisión de celdas (cell relay).


Retransmisión de tramas (frame relay)


Los medios de transmisión actuales poseen una tasas de error muy bajas, por lo que el principio de operación de frame relay es muy sencillo, ya que la red actúa como si no existieran errores debido a la poca probabilidad de que estos se produzcan. Cuando una trama llega a un nodo, este, automáticamente, la envía a su destino, una vez analizada la cabecera, ¿qué ocurre si eventualmente se produjese un error? Pues sencillamente se interrumpe la transmisión. Si la trama todavía está en la red, los nodos se encargan de eliminarla. En caso de que la trama ya hubiese sido recibida en su destino, es el Equipo Terminal de Datos, el que mediante los protocolos de nivel superior se encarga de solicitar la retransmisión. Resumiendo, las características tecnológicas más importantes de frame relay son:

  • Tecnología eficiente para transporte de datos.
    • Tramas de longitud variable hasta 8 K.
    • No recomendada para voz/vídeo.
  • Mejora del caudal debido a que realiza un proceso mínimo.
    • Los equipos terminales son los responsables de la corrección de errores y del acuse de recibo.
    • Diseñada para operar con circuitos de baja tasa de error.
  • Opera transparentemente al nivel 3 y superiores

El frame relay no está recomendado para voz y vídeo, pues la calidad de la transmisión de estas señales sería fuertemente degradada debido a la longitud variable y potencialmente grande de las tramas.

Retransmisión de celdas (cell relay)

La retransmisión de celdas, es una tecnología para retransmitir datos, voz, imagen y vídeo en unidades de información de longitud fija denominadas celdas. Esta tecnología se utiliza en Redes Digitales de Servicios Integrados de Banda Ancha (RDSI-BA o BISDN) y en las redes de área metropolitana (MAN), como las definidas en el proyecto IEEE 803.6 y denominadas DQDB, Dual Queue Dual Bus. La transferencia de la información se realiza mediante la técnica denominada Modo de Transferencia Asíncrono, MTA o ATM a nivel internacional. Con esta técnica, la información se empaqueta en grupos de octetos de longitud fija, denominados celdas. Cada celda se compone de un total de 53 octetos, de los cuales 5 son de cabecera. La conmutación de las celdas se realiza por hardware para que la latencia sea mínima, de orden de microsegundos, y opera mediante circuitos virtuales. En la cabecera de cada celda hay una indicación explícita del circuito virtual e incluso de otro concepto denominado trayecto virtual a los cuales la celda está asociada. Con ello se posibilita una asignación flexible y dinámica del ancho de banda disponible entre los canales virtuales que en cada momento se precisan. El término asíncrono hace referencia al hecho de que las celdas asignadas a una misma conexión o circuito virtual, pueden mostrar una recurrencia irregular, puesto que las celdas se asignan en función de la demanda.

Evolución de las comunicaciones móviles


Hoy en día nadie se sorprende al contemplar como las personas se comunican desde su automóvil o simplemente utilizando radioteléfonos portátiles. Estos últimos ofrecen obvias ventajas con respecto al radioteléfono "fijo" instalado en el automóvil, ya que este último, con un "kit" de adaptación se puede usar como equipo portátil o como equipo para el coche. Por ello, hay dos aspectos a tener en cuenta, la evolución de las comunicaciones móviles, el peso de los equipos portátiles y la autonomía de la batería. Con respecto al tamaño y al peso, la única barrera por el momento insalvable es el teclado, ya que, al igual que ocurre con las calculadoras de bolsillo, unas teclas demasiado pequeñas hacen incómoda su utilización. La tendencia en este momento es disponer de equipos portátiles del tamaño de una tarjeta y de gran autonomía, con lo que se evitaría la excesiva dependencia de los equipos actuales del cargador de batería. Por otro lado, y para el entorno de oficinas, se están implantando lo que se denominan "centralitas sin hilos". Su principio de funcionamiento es el siguiente: a la centralita se conectan equipos de radio de pequeña potencia. Siguiendo el concepto de la telefonía celular, a cada equipo de radio le corresponde una zona de cobertura denominada por su pequeño tamaño, microcélula. De esta manera, los usuarios disponen, adicionalmente a la terminal convencional, de pequeños radioteléfonos portátiles con las mismas prestaciones que el teléfono de mesa. Esta tecnología es conocida internacionalmente como CT (Cordless Telephone) o telefonía sin hilos. Otra etapa en la telefonía móvil es el de realizar una estructura que evite que el usuario tenga que cambiar de equipo en función del entorno en que se halle. Con ello se haría una contribución al famoso concepto de aldea global. El usuario de las telecomunicaciones estaría asociado a una red mundial y no dependería del equipo o sistema utilizado. Es decir, las redes futuras reconocerían al usuario de una manera personalizada y éstos podrían disponer de las prestaciones de la red en todo su ámbito de cobertura. A esta red se le conoce como PCN (Personnel Communications Network). En definitiva, la evolución de las comunicaciones móviles supondrá un salto espectacular en las comunicaciones en general tal que, como la sociedad está demandando, la ubicación de las personas no será un elemento determinante para el negocio, el acceso a la información o, simplemente, el propio desarrollo personal.


Redes heterogéneas


Una red heterogénea está constituida por equipos de diversos fabricantes y diversas arquitecturas, desde SNA hasta TCP/IP. Los requisitos que debería cumplir una red heterogénea son, fundamentalmente:

  • Interoperatividad total. Es decir, que todos los equipos y aplicaciones puedan inter-operar.
  • Acceso transparente a los datos. Los usuarios no deben estar involucrados en la situación de los datos dentro de la red.
  • Interfaz de usuario consistente. Los usuarios deben tener una interfaz de acceso a la red con el mismo estilo de presentación, independientemente de la estación de trabajo y de la localidad.
  • Capacidad de proceso distribuido. Las aplicaciones ejecutándose en el equipo más adecuado.

·         ·         Capacidad de proceso transaccional distribuido. Es un caso particular del anterior, en el que las aplicaciones son transaccionales, es decir, estructuradas en conjuntos de mensajes que pueden tratarse independientemente.

·         ·         Gestión de red y del sistema integrada. Desde un punto focal se debe poder conocer la situación y controlar los elementos de un sistema.

Proceso distribuido y gestión de red

Proceso distribuido

El desarrollo de las computadoras personales, las redes de área local y las minicomputadoras, ha potenciado una fuerte evolución de las redes descentralizadas y distribuidas, dando lugar a la concepción de que una red teleinformática es una computadora distribuida,  de ahí la famosa expresión "La computadora es la red". Las aplicaciones distribuidas se basan en los conceptos de cooperación y compartición de recursos a través de la red. Una aplicación distribuida es una aplicación que utiliza o accede a recursos de varios sistemas. Si bien el componente económico es importante, existen razones verdaderamente funcionales que han creado la necesidad de distribuir procesos: servidores de comunicaciones, servidores de archivos, servidores de supercomputación, son ejemplos evidentes de la conveniencia de distribuir funciones. Otra característica interesante que proporcionan los sistemas distribuidos es la fiabilidad. Un sistema distribuido puede construirse de forma que sea más fiable que un sistema centralizado, al no depender de un solo nodo y facilitar la replicación de funciones y de datos en los distintos nodos de la red. En relación con las actividades de normalización, podemos decir, a título de ejemplo, que la aplicación de correo electrónico, X.400, en OSI es distribuida.

Gestión de red

Al incrementarse la complejidad de las redes se hace necesario el disponer de potentes sistemas de gestión de red que proporcionen herramientas que permitan a los administradores un control relativamente sencillo de todas las operaciones relacionadas con las redes. La gestión de red, por otra parte, debe ser consistente con la gestión total del sistema, comprendiendo procesadores, memorias, bases de datos y aplicaciones. Por otra parte, la expansión de redes heterogéneas y las redes integradas de voz, datos y vídeo demanda una mayor exigencia a los requisitos de gestión de red, debido a la complejidad de dichas redes. En lo que respecta a los procesos de normalización, en la actualidad las redes heterogéneas se gestionan normalmente con gestión de red TCP/IP (SNMP) e incluso con gestión de red SNA que, es un estándar "de facto" en algunos escenarios.


Historia de las Comunicaciones

Desde el comienzo de la historia de la humanidad, uno de los factores que han constituido y constituye un elemento vital para la evolución y el desarrollo de la humanidad es la comunicación.

Las Telégrafo, que permitió diversos tipos de comunicaciones digitales utilizando códigos como el Morse inventado por Samuel F. B. Morse en 1820. Morse comenzó a estudiar las comunicaciones en 1830 teniendo preparada una máquina en 1835 compuesta en el emisor por un conjunto de piezas con dientes correspondientes a las letras y las cifras que ensambladas para formar un mensaje y pasadas a través del correspondiente dispositivo, provocaban las sucesivas aperturas y cierres de un interruptor que producía la señal enviada por la línea. En el receptor, un electroimán recibía dicha señal y producía el desplazamiento de un lápiz que escribía en el papel la forma de la señal con la que se podía descifrar el mensaje recibido.

En 1855, Charles Wheatstone inventó el formato de una cinta junto con la perforadora correspondiente que permitía el envío y recepción de mensajes en código Morse en modo off-line, es decir, sin que un operador se encuentre permanentemente pendiente de la transmisión y recepción de los mensajes telecomunicaciones comenzaron en 1830 con la utilización del.

En 1874, el francés Emile Baudot, inventó el telégrafo múltiple que permitía el envío de varios mensajes por la misma línea. Se conectaban varios manipuladores de cinco teclas a una misma línea a través de un distribuidor que repartía el tiempo entre los distintos usuarios. En el receptor existía un distribuidor similar al del transmisor y sincronizado con él, repartía los mensajes entre distintas impresoras.

Más tarde, en 1876 Alexander Graham Bell inventó el Teléfono con el que comenzó la comunicación de la voz a distancia. Este invento hizo que rápidamente se unieran por cable muchas ciudades y dentro de ellas muchas empresas particulares, lo cual facilitó mucho la utilización de otros medios de comunicación posteriores que aprovecharon las propias líneas telefónicas.

Con la aparición de máquinas de escribir que incorporaban relés para la activación de la escritura, durante la Primera Guerra Mundial, E.E. Kleinschmidt desarrolló un sistema de transmisión que no requería de operadores en continua atención. Este sistema hizo posible la aparición en 1910 del Teletipo o teleimpresor, que permitió el envío de mensajes a distancia utilizando el código Baudot creado por Emile Baudot en 1874.

Ya a partir de 1950, con la aparición del módem, comenzaron los primeros intentos de transmisión de datos entre computadoras en aplicaciones de gestión, pero fue en la década de los sesenta, y fundamentalmente en la de los setenta, cuando se implantó definitivamente la conexión a distancia de todo tipo de computadoras y periféricos.

 El primer proyecto importante que incorpora técnicas teleinformáticas fue el SAGE (Service Automatic Ground Environment) desarrollado por las Fuerzas Aéreas de los Estados Unidos de América en 1958.

En la década de los sesenta aparecen, por un lado, los lenguajes de programación interactivos y por otro, los sistemas operativos conversacionales que, junto a las tecnologías de conmutación de paquetes y los satélites de comunicaciones, propiciaron los primeros pasos para la verdadera unión entre las telecomunicaciones y la informática.

En la década de los setenta, marcada por una gran evolución en la conectividad, aparecen las redes de computadoras, los protocolos y las arquitecturas teleinformáticas.

En 1971 aparece la red ARPANET, fundada por la organización DARPA (Defense Advanced Research Projects Agency) que ha dado origen a la red Internet que actualmente integra a las más importantes instituciones académicas, de investigación y desarrollo que existen en el mundo. En esta red se desarrolló el conjunto de protocolos denominados TCP/IP que han ejercido influencia en las redes teleinformáticas.

Esta década de los setenta se caracteriza también por el gran auge que toma la normalización. En 1976, el Comité Consultivo Internacional Telefónico y Telegráfico (CCITT) normalizó las redes de conmutación de circuitos y las redes de conmutación de paquetes. En 1977, la Organización de Estándares Internacionales modela y normaliza la interconexión de computadoras creando el Modelo Básico de Referencia para la Interconexión de Sistemas Abiertos (OSI), que fue publicado años después.

El final de la década de los setentas viene marcada, fundamentalmente, por la aparición en 1978 de las Redes de Área Local (LAN) que permiten la interconexión entre equipos informáticos en un entorno reducido.

La década de los ochenta, con la popularización de las Computadoras Personales, ha marcado un desarrollo definitivo en el campo tele-informático y lo ha popularizado. También en esta década aparecen las Redes Digitales para dar servicio especializado a usuarios que requieran la integración de información compuesta por texto, datos, imagen y voz.

Actualmente, en Telecomunicaciones se tiende al abaratamiento de la utilización de las redes, así como a nuevas posibilidades de transmisión proporcionadas por las Redes Digitales de Servicios Integrados de Banda Ancha que operan a gran velocidad.


Una línea de comunicación tiene dos sentidos de transmisión que pueden existir simultáneamente o no. Por este motivo, existen los siguientes modos de transmisión:


La línea transmite en un solo sentido sin posibilidad de hacerlo en el otro. Esta modalidad se usa exclusivamente en casos de captura de datos en localizaciones lejanas o envío de datos a un dispositivo de visualización desde una computadora lejana. Dos ejemplos pueden ser los de captura de datos en estaciones meteorológicas y la transmisión de información a los señalizadores luminosos en las carreteras.

Half Duplex

La línea trasmite en los dos sentidos pero no simultáneamente.

Full Duplex

La línea transmite en los dos sentidos simultáneamente.

Modos de transmisión

Transmisión en paralelo

Los movimientos de datos en el interior de una computadora se realizan mediante un conjunto de bits que configuran una palabra de computadora, siendo tratados simultáneamente, es decir, en paralelo. Para una transmisión de datos a larga distancia realizándose en paralelo, serían necesarios tantos circuitos como bits.

Transmisión en serie

Debido a que resulta demasiado costosa la implementación de la trasmisión de datos a larga distancia en paralelo, se utiliza la transmisión en serie, enviándose los bit uno detrás de otro. Esta transmisión tiene la desventaja de ser más lenta que la transmisión en paralelo, debido a su característica de secuenciamiento de bits.

Formatos de transmisión


Se llama sincronización al proceso mediante el que un emisor informa a un dispositivo receptor sobre los instantes en que van a transmitirse las correspondientes señales.

Sincronización por bit

Debe reconocerse el comienzo y el fin de cada bit.

Sincronización por carácter

Debe reconocerse el comienzo y el final de cada unidad de información, como puede ser un carácter o una palabra transmitida.

Transmisión síncrona

Es una técnica que consiste en el envío de una trama de datos (conjunto de caracteres) que configura un bloque de información comenzando con un conjunto de bits de sincronismo (SYN) y termina con otro conjunto de bits de final de bloque (ETB). En este caso, los bits de sincronismo tienen la función de sincronizar los relojes existentes tanto en el emisor como en el receptor, de tal forma que éstos controlan la duración de cada bit y carácter.

 Transmisión asíncrona

Consiste en acompañar a cada unidad de información de un bit de arranque (start) y otro de parada (stop). Esto se consigue manteniendo la línea a nivel 1, de tal forma que el primer 0 es el bit de arranque y a continuación se transmiten los bits correspondientes al carácter, terminando la transmisión con un bit 1, cuya duración mínima sea entre una y dos veces la de un bit. La línea se mantendrá en este nivel hasta el comienzo de la transmisión del siguiente carácter.



En la década de los sesenta, las organizaciones o empresas comenzaron a automatizar la gestión de su información utilizando un gran sistema de proceso de datos, desde donde se daban todos los servicios a los distintos departamentos de la organización o empresa. En la década de los setenta, con la aparición de la minicomputadoras, dio comienzo la informática departamental, donde cada sección o departamento era autónomo en el uso de su sistema informático.

A finales de los setenta y en los primeros años de la década de los ochenta, la explosión de la oferta de minicomputadoras en el mercado, hizo que éstas se introdujeran en la pequeña y mediana empresa. En esta misma época también apareció la computadora personal de IBM, que dio paso a otras computadoras de diversas marcas y con ellas empezó una nueva era (la de las microcomputadoras).

En poco tiempo, las computadoras personales se integraron en la estrategia informática de las empresas, incorporándose paulatinamente en todos los departamentos. Son muchas las organizaciones que comienzan a introducir computadoras personales en sus sistemas de información aumentando progresivamente el número de aplicaciones que utilizan. Este aumento hizo que la coherencia de los datos empezara a ser difícil de controlar.

Para abordar este problema surge el concepto de Red de Área Local (RAL o Local Area Network-LAN), si bien con anterioridad ya existían conexiones entre minicomputadoras, microcomputadoras y sus terminales, aunque el tema no estaba planteado de forma sistemática.

El desarrollo de las redes de área local comenzó en los primeros años de la década de los ochenta.

La facilidad de compartir datos y recursos en un grupo de trabajo ha producido un cambio fundamental en las estrategias informáticas de las empresas. Por este motivo, las redes de área local hoy en día cuentan con un número de adeptos cada vez mayor. Por otra parte, la posibilidad de conexión entre redes de área local y las redes de área extensa, ofrece unas posibilidades de conectividad importantes para las organizaciones o empresas.

Características, ventajas y desventajas de las RAL

Una Red de Area Local es un conjunto de elementos físicos y lógicos que proporcionan interconexión a una gran variedad de dispositivos de comunicación de información en un área privada restringida (recinto, edificio, campus, etc.)

En esta definición formal aparecen los siguientes elementos con significado propio: conjunto de elementos físicos y lógicos que proporcionan interconexión, es decir, son un conjunto de elementos que configuran una red de comunicación que facilita la transmisión de bits entre un dispositivo y otro. Por otra parte, se habla de una gran variedad de dispositivos de comunicación, esto es, a la red pueden conectarse dispositivos de todo tipo tales como computadoras, terminales, periféricos, sensores, aparatos telefónicos, equipos facsímil, etc. Otro aspecto incluido en la definición es el ámbito geográfico de la red local que, en general, es pequeño y no sale más allá de los límites de un departamento situado en un edificio o conjunto de edificios próximos. Por último cabe destacar el carácter privado de una red local que, generalmente, no necesita otros medios de comunicación suministrados por empresas o redes de comunicación.

Las características más representativas de una red de área local son las siguientes:

  • Alcance. El area de conexión se limita a una extensión moderada, generalmente desde unos pocos metros a unos pocos kilómetros.
  • Velocidad de transmisión. En estas redes, la velocidad es elevada en comparación con otros circuitos de comunicación, variando entre 1 y 100 Mbps.
  • Conectividad. Además de que todos los dispositivos conectados a una red de área local puedan comunicarse entre sí, también se incluye la capacidad de conexión con otras redes locales o de área extensa como pueden ser la red telefónica conmutada o las redes SNA, X.25, TCP/IP, etc.
  • Propiedad Privada. Una red de área local es propiedad de la organización o empresa en lugar de ser un elemento público para otros usos externos. Por lo general, la organización es propietaria de la red y todo el conjunto de dispositivos conectados a ella.
  • Fiabilidad. Estas redes presentan una baja tasa de error en las transmisiones de datos en comparación con el resto de modalidades de comunicación.
  • Compartición de recursos. Permiten la integración en la misma red de una gran diversidad de dispositivos. Los recursos de almacenamiento, las impresoras y los elementos de comunicación pueden ser utilizados por todas las estaciones de trabajo.

Las ventajas más significativas que proporcionan las redes de area local son:

  • Recursos compartidos. Los dispositivos conectados a la red comparten datos, aplicaciones, periféricos y elementos de comunicación.
  • Conectividad a nivel local. Los distintos equipos que integran la red se encuentran conectados entre sí con posibilidades de comunicación.
  • Proceso distribuido. Las redes de área local permiten el trabajo distribuido, es decir, cada equipo puede trabajar independientemente o cooperativamente con el resto.
  • Flexibilidad. Una red local puede adaptarse al crecimiento cuantitativo referido al número de equipos conectados, así como adaptarse a cambios cualitativos de tipo tecnológico.
  • Disponibilidad y fiabilidad. Un sistema distribuido de computadoras conectadas en red local es inherentemente más fiable que un sistema centralizado.
  • Cableado estructurado. Estas redes por sus cableados y conexiones, facilitan mucho la movilidad de los puestos de trabajo de un lugar a otro
  • Optimización. Las redes de área local permiten la máxima flexibilidad en la utilización de recursos, estén estos en la computadora central, el procesador departamental o la estación de trabajo, facilitando, por tanto, la optimización del coeficiente prestaciones/precio del sistema.

Entre las desventajas frente a un único sistema multiusuario se pueden citar las siguientes:

  • Interoperatividad. La carencia de estándares bien definidos entre los datos que producen las aplicaciones, hace que una red local no garantice que dos dispositivos conectados a ella, funcionen correctamente entre sí al comunicar aplicaciones de distinta naturaleza. Por ejemplo, si dos equipos trabajan con distintos procesadores de texto y pretenden transmitirse archivos de texto, posiblemente será necesario algún tipo de conversión.

·         ·         Por la naturaleza distribuida de una red local, la gestión de la red en cuanto a control de accesos, rendimientos y fiabilidad es más compleja.

·         ·         Integridad, seguridad y privacidad de la información. En todo sistema distribuido pueden surgir problemas de este tipo.

El estado actual del hardware y software de redes de área local hace que las desventajas expuestas puedan paliarse mediante el empleo de las técnicas adecuadas, normalmente realizadas por programas de comunicaciones, gestión de red y seguridad.

Medios de transmisión

La información que maneja una computadora es de origen digital, encontrándose codificada a partir de un alfabeto de dos símbolos que se corresponden con 1 y 0 o, lo que es lo mismo, presencia o ausencia de una señal eléctrica. Para la transmisión de esta información entre dispositivos distintos a larga o corta distancia debe utilizarse un medio físico que asegure su correcta recepción en el destino. Existen dos tipos de medios de transmisión de datos:

  • Medios guiados, que incluyen a los cables metálicos (cobre, aluminio, etc.) y de fibra óptica. El cable se instala normalmente en el interior de los edificios o bien en conductos subterráneos. Los cables metálicos pueden presentar una estructura coaxial o de par trenzado, y el cobre es el material preferido como núcleo de los elementos de transmisión de las redes. El cable de fibra óptica se encuentra disponible en forma de hebras simples o múltiples de plástico o fibra de vidrio.


  • Medios no guiados, relativos a las técnicas de transmisión de señales a través del aire y del espacio entre transmisor y receptor (radioenlaces). La transmisión por infrarrojos y microondas cae dentro de esta categoría.



La topología de una red de área local define la distribución de cada estación en relación a la red y las demás estaciones. Las topologías son criterios determinantes para la elección de las redes de área local, la reducción del costo de encaminamiento, la fiabilidad o tolerancia a fallos y su facilidad para localizarlos, y por último la facilidad de su instalación y reconfiguraciones futuras.
Las topologías más comunes en las redes de área local se citan a continuación:

  • Estrella
  • Bus
  • Árbol
  • Anillo
  • Anillo modificado

Topología en estrella

En la topología en estrella todas las estaciones están conectadas mediante enlaces bidireccionales a una estación o nodo central que controla la red. Este nodo central asume las funciones de gestión y control de las comunicaciones proporcionando un camino entre cada dos estaciones que deseen comunicarse. La principal ventaja de la topología en estrella es que el acceso a la red, es decir, la decisión de cuando una estación puede o no transmitir, se halla bajo control de la estación central. Además la flexibilidad en cuanto a configuración, así como la localización y control de fallos es aceptable al estar todo el control en el nodo central. El gran inconveniente que tiene esta topología es que si falla el nodo central. Toda la red queda desactivada. Otros pequeños inconvenientes de este tipo de red son el costo de las uniones físicas puesto que cada estación está unida a la unidad central por una línea individual, y además, las velocidades de transmisión son relativamente bajas.

Topología en bus

En esta topología todas las estaciones se conectan a un único medio bidireccional lineal o bus con puntos de terminación bien definidos. Cuando una estación transmite, su señal se propaga a ambos lados del emisor, a través del bus, hacia todas las estaciones conectadas al mismo, por este motivo, al bus se le denomina también canal de difusión. La mayor parte de los elementos de las redes en bus tienen la ventaja de ser elementos pasivos, es decir, todos los componentes activos se encuentran en las estaciones por lo que una avería en una estación no afecta más que a ella misma. Por otra parte, un inconveniente de este tipo de redes es que si falla el propio bus, queda afectada toda la red. Las principales ventajas que tiene esta topología son la modularidad, es decir, la facilidad de añadir y quitar estaciones. Entre las desventajas se puede citar el hecho de que varias estaciones quedan desconectadas al fallar un tramo del bus.

Topología en árbol

Es una variante de la topología en bus, consistente en un bus principal denominado tronco del que parten varios buses secundarios denominados ramas, cada una de las cuales es capaz de admitir varias estaciones. Al igual que en la topología en bus, las señales se propagan por cada ramal de la red y llegan a todas las estaciones. Además de las ventajas e inconvenientes de las redes en bus, la red en árbol tiene una mayor adaptabilidad al entorno físico donde se instala la red, con lo que el costo de cableado es aún menor.

Topología en anillo

El anillo consiste en una serie de repetidores conectados entre sí mediante un único enlace de transmisión unidireccional que configura un camino cerrado. La información se transmite secuencialmente de un repetidor al siguiente a lo largo del anillo, de tal forma que cada repetidor regenera la señal que recibe y la retransmite al siguiente, salvo que la información esté dirigida a él, en cuyo caso la recibe en su memoria. Los repetidores constituyen un elemento activo de la red, siendo sus principales funciones las de contribuir al correcto funcionamiento del anillo ofreciendo todos los servicios necesarios y proporcionar el punto de acceso a las estaciones de la red. Normalmente los repetidores están integrados en las computadoras personales y en las estaciones de trabajo. Las redes en anillo permiten un control eficaz, debido a que, en cada momento, se puede conocer en que trama está circulando la señal, puesto que se sabe la última estación por donde ha pasado y la primera a la que todavía no ha llegado. La desventaja fundamental es la falta de fiabilidad. Un fallo en el anillo inhabilitaría todas las estaciones.

Topología en anillo modificado

Es una variante de la red en anillo que trata de solucionar los problemas de la escasa fiabilidad que tienen estas redes facilitando algunas tareas como la instalación, mantenimeinto y la reconfiguración. En general, se trata de topologías alternativas en las que la configuración física es distinta a la de anillo pero conserva la misma estructura lógica. El ejemplo más claro de este tipo de redes es el ofrecido por la red de pase de testigo en anillo (Token-Ring) consistente en una configuración física en estrella con una configuración lógica en anillo.


La técnica de sondeo se basa en la relación maestro-esclavo entre el nodo central y las demás estaciones del anillo o del bus. En el caso de la topología en anillo (bucle) para que un nodo pueda transmitir debe recibir permiso del nodo central a través de un mensaje de sondeo. Este permiso va pasando secuencialmente de estación en estación a lo largo de todo el anillo. Cada estación puede transmitir cuando recibe el permiso y encuentra el anillo vacío. Al finalizar su transmisión pasa el permiso a la estación siguiente. El inconveniente de esta técnica reside en la necesidad de que la comunicación entre dos nodos cualesquiera pase por la estación central. En la topología en bus nos encontramos con la técnica de sondeo en la que por turnos, la estación central pregunta a cada estación si tiene necesidad de transmitir información. En caso afirmativo, la estación preguntada recibe permiso para transmitir, de tal forma que la información pasará por la estación central para, desde ella, dirigirse a la estación destino. La diferencia con la técnica anterior estriba en que, en el caso anterior, el permiso circulaba por el anillo de estación en estación mientras que, en este caso, es necesario el envío de la pregunta sondeo para cada estación individualmente. Se trata de un método sencillo de llevar a la práctica y donde no se producen conflictos entre estaciones que desean transmitir. Además se trata de un método en el que pueden incluirse prioridades con facilidad, haciendo que las estaciones con mayor prioridad sean interrogadas con mayor frecuencia que el resto. Estas técnicas centralizadas tienen el inconveniente ya mencionado de que, si falla la estación central, toda la red se queda sin servicio. Además pueden aparecer turnos de espera excesivamente largos si el número de estaciones es grande.

Pase de testigo (Token-Pass)

Estas técnicas se consideran como una forma de interrogación distribuida en la que todas las estaciones de la red intervienen en la circulación de un paquete especial de información que recibe el nombre de testigo (Token) que indica, a la estación que lo recibe, que tiene el medio de transmisión a su disposición para efectuar una transmisión. Estas técnicas pueden utilizarse tanto en las redes con topologías en bus como en las redes en anillo.

Pase de testigo en bus (Token-Bus)

En esta técnica, las estaciones del bus o árbol forman un anillo lógico, es decir, a las estaciones se les asigna una posición lógica en una secuencia ordenada y circular. Cada estación conoce la identidad de su estación antecesora y de su sucesora dentro del anillo lógico. En este caso, la ordenación física es totalmente independiente e irrelevante a la ordenación lógica. La estación que recibe el testigo tiene garantizado el derecho de acceso al medio de transmisión de tal forma que al finalizar su transmisión o terminar el tiempo asignado, pasará el testigo a la siguiente estación en la secuencia lógica. Las redes con pase de testigo proporcionan mejores posibilidades de gestión de red.

Pase de testigo en anillo (Token-Ring)

Esta técnica se basa en una pequeña trama o testigo que circula a lo largo del anillo. Un bit indica el estado del anillo (libre u ocupado) y cuando ninguna estación está transmitiendo, el testigo simplemente circula por el anillo pasando de una estación a la siguiente. Cuando una estación desea transmitir, espera a recibir el testigo modificando el bit de estado del anillo de libre a ocupado e inserta a continuación la información a enviar junto con su propia dirección y la de la estación destino. El paquete de datos circula por el anillo hasta llegar a la estación receptora que copia su contenido y lo vuelve a poner en circulación incluyendo una marca de recepción, de tal forma que, cuando vuelve a llegar a la estación emisora, ésta lo retira de la red y genera un nuevo testigo libre. La principal ventaja de esta técnica es su alto rendimiento. Su adaptabilidad a la topología en anillo y el ser un método de transmisión unidireccional hacen que su eficiencia sea mayor que las redes que utilizan el método de pase de testigo en bus. Entre sus desventajas se encuentran la disminución de la eficiencia en caso de baja carga del sistema debido a la circulación del testigo y los procesos de mantenimiento de la red.

Acceso Múltiple con Detección de Portadora (CSMA)

Estas técnicas se basan en que las estaciones solicitan transmitir de forma aleatoria y no existe control para determinar el orden de transmisión, por tanto, todas las estaciones deben competir por el derecho al acceso. La técnica de acceso aleatorio múltiple con detección de portadora y de colisión es el método más usado en las topologías en bus y árbol. Esta técnica consiste en que una estación que desee transmitir, primero escucha el medio para determinar si hay otra transmisión en proceso. Si es así, la estación tras un período de espera lo vuelve a intentar hasta que encuentre el medio de transmisión libre. Cuando el medio está libre, la estación emisora vuelve a retransmitir la información hasta que la confirmación se produzca. Uno de los motivos por el que una información no llegue a su destino puede ser la aparición de colisiones en las que varias estaciones solicitan transmitir al mismo tiempo. Otra técnica que mejora la anterior es la conocida como acceso múltiple con detección de portadora y detección de colisiones (Carrier Sense Multiple Access/Collision Detection-CSMA/CD) consistente en controlar la aparición de colisiones añadiendo a la técnica CSMA las siguientes reglas:

  • Si se detecta una colisión durante la transmisión, se cesa inmediatamente ésta y se transmite una pequeña trama de consenso de colisión para asegurar que todas las estaciones se han enterado de la existencia de la colisión.

Tras esperar un determinado período de tiempo, se vuelve a intentar la transmisión usando CSMA.


Niveles de Protocolos

Se definen los protocolos de comunicación dentro del contexto de arquitectura de red en niveles. Cada nivel especifíca un protocolo para manejar subsistemas o funciones del proceso de comunicación. A continuación se enumeran los niveles de protocolos de red más comunes para la industria :

  • Sonde Modelo de interconexión de sistemas abiertos (OSI, Open System Interconection) de ISO
  • Arquitectura de sistemas en red de IBM
  • Apple Talk de Apple
  • El grupo Internet, inclusive TCP/IP

Los protocolos existen en cada nivel para realizar algunas de las tareas que afectan a la comunicación entre los sistemas, mientras los dos sistemas operen con protocolos similares. Aunque típicamente las pilas de protocolo tienen unos siete niveles, es práctico agruparlas dentro de las categorías siguientes.

Protocolos de Aplicación

Los protocolos de aplicación abarcan los niveles de aplicación, presentación y sesión, que son fundamentalmente usuarios de servicios de comunicaciones de red y proporcionan interacción entre aplicaciones e intercambio de datos. Los protocolos de comunicación genéricos incluyen aquellos enumerados aquí, tanto como las Llamadas a procedimiento remoto (RPC's, Remote Procedure Calls), los sistemas de procesamiento de transacciones y los sistemas de mensajería.

  • Aplicaciones de IBM y Comunicación avanzada programa a programa (APPC, Advanced Program-to-Program Communication) también llamada LU 6.2
  • Terminal virtual de OSI, Acceso y gestión en la transferencia de archivos (FTAM, File Transfer Access and Management), Procesamiento de transacciones distribuidas (DTP, Distributed Transaction Processing), Sistema de gestión de mensajes (X.400) y Servicios de directorio (X.500).
  • Internet, el sistema de archivos de red de UNIX, el Protocolo básico de transferencia de correo (SMTP, Simple Mail Transfer Protocol), TelNet y el Protocolo básico de gestión de red (SNMP, Simnple Network Management Protocol).
  • Protocolo principal de red (NCP, Network Core Protocol) de Netware de Novell y shells de los clientes o de los redireccionadores.
  • Bloque de mensaje del servidor de Microsoft, NetBIOS y shells de los clientes o de los redireccionadores.

Protocolos de Transporte

Los protocolos de transporte proporcionan servicios de distribución de datos orientados a la conexión a través de redes. Fundamentalmente proporcionan intercambio de datos extremo a extremo en los cuales se mantienen sesiones o conexiones entre sistemas para el intercambio secuencial y fiable de los datos. Los protocolos de transporte incluyen aquellos aquí enumerados:

  • Conexión de red avanzada par a par (APPN, Advanced Peer-to-Peer Networking) de IBM.
  • Servicio de transporte orientado a la conexión (COTS, Connection-Oriented Transport Service) y Servicios de transporte no orientados a la conexión (CLTs, Connectionless Transport Services de OSI).
  • Parte del Protocolo de control de transmisión (TCP, Transmission Control Protocol) del grupo de protocolos de TCP/IP de Internet y UNIX.
  • Parte de SPX del grupo de protocolos SPX/IPX de Novell.
  • Interfaces NetBIOS y NetBEUI de Microsoft.
  • Protocolo de mantenimiento de la tabla de encaminamiento (RTMP, Routing Table Mantenance Protocol) de AppleTalk, Protocolo de eco de AppleTalk (AEP, AppleTalk Echo Protocol), Protocolo de transacción de AppleTalk (ATP, AppleTalk Transaction Protocol), Protocolos de vinculación de nombre (NBP, Name Binding Protocol).

Protocolos de Red

Los protocolos de nivel red proporcionan servicios para los sistemas de comunicaciones. Manejan la información de direccionamiento y encaminamiento, comprueban los errores y las peticiones de retransmisión. También proporcionan los procedimientos para el acceso a la red, cuando la red usada los especifíca en concreto (como Ethernet, anillo con testigo y etc.). Entre los protocolos de red se incluyen los siguientes:

  • Conexión de red avanzada par a par (APPN, Advanced Peer-to-Peer Networking) de IBM.
  • Servicio de red orientado a la conexión (CONS, Connection-Oriented Network Service) y Servicio de red no orientado a la conexión (CLNS, Connectionless Network Service).
  • Protocolo Internet del grupo de protocolos TCP/IP de Internet y UNIX.
  • La parte de IPX del grupo de protocolos SPX/IPX de Novell.
  • Interfaces NetBEUI de Microsoft.
  • Protocolo de distribución de datagramas (DDP, Datagram Delivery Protocol) de AppleTalk

Protocolo X.25 (Usado por telepac)

El protocolo X.25 es una recomendación del CCITT (ITU) que define las conexiones de terminales y de computadoras a las redes de conmutación de paquetes. Las redes de conmutación de paquetes encaminan los paquetes de datos a través de una red a los nodos destinos. X.25 es un servicio de conmutación de paquetes bien conocido que tradicionalmente se usa para la conexión de terminales remotos a sistemas anfitriones (host). El servicio proporciona conexiones cualquiera a cualquiera para usuarios simultáneos. La interfaz X.25 soporta velocidades de línea de hasta 64 kpbs aunque una parte importante del rendimiento es la sobrecarga para la corrección de errores. El CCITT revisó la norma en 1992 y aumentó la velocidad a 2 Mbps.

La arquitectura de conmutación de paquetes de X.25 tiene ventajas y desventajas. Los paquetes de información se encaminan a través de una red de malla, en función de la información que contenga la cabecera del paquete sobre la dirección destino. Los usuarios pueden conectarse con muchos lugares diferentes, a diferencia de las redes orientadas a circuitos donde existe un trayecto dedicado entre sólo dos puntos. Debido a que los paquetes viajan a través de los puertos compartidos de los encaminadores, es posible que se produzcan los retardos en la distribución. Los usuarios experimentan un acceso lento cuando más y más personas acceden a la red, aunque la mayoría de las redes pueden soportar el exceso de tráfico por el encaminamiento alrededor de las áreas congestionadas. Por contraposición, las redes orientadas a circuitos proporcionan un ancho de banda fijo entre dos puntos que no se acomoda a las ráfagas de tráfico que sobrepasen ese ancho de banda.

X.25 adolece de presentaciones pobres y no es aceptable para la mayoría de las aplicaciones en tiempo real LAN o LAN. Sin embargo, X.25 es muy conocido, entendido y aceptado para el acceso a terminales o a computadoras remotas siempre y cuando el tráfico sea ligero. X.25 puede ser el único camino fiable para establecer enlaces de red internacionales con países con sistemas telefónicos no fiables. Casi todos los países tienen servicios X.25. Por el contrario, la obtención de circuitos dedicados fiables en algunos países es casi imposible.

Protocolo TCP/IP (Usado por INTERNET)

Los protocolos TCP/IP comenzaron a utilizarse en ARPANET a partir del año 1971. En 1983 adoptan su estructura básica actual, como consecuencia de un proyecto financiado por DARPA para su utilización en entornos de sistemas operativos UNIX. Es por ello por lo que muchos mandatos y librerías TCP/IP proceden del mundo UNIX.

Si bien los protocolos TCP/IP comenzaron a utilizarse en la red ARPANET, muy pronto se adoptaron para una segunda red denominada MILNET, segregada de ARPANET para aplicaciones militares. El conjunto de estas dos redes fué el embrión de la red Internet, que muy pronto se extendió a las redes de investigación y académicas más importantes del mundo.

En la actualidad la arquitectura TCP/IP se utiliza en todo tipo de redes, tanto de área local como de área extensa. Ha sido adoptada por más de 160 fabricantes, si bien en muchos casos coexistiendo con las arquitecturas propias o "propietarias" como SNA o DNA. Por ello se ha convertido en un estándar "de facto" o de "hecho". De esta forma los protocolos TCP/IP han trascendido de los sistemas operativos UNIX y actualmente se utilizan con múltiples sistemas, como DOS, OS/2, MVS y OS/400 de IBM, VMS de DEC, etc. además de los que se basan en UNIX.

TCP/IP es una familia de protocolos desarrollados para permitir la comunicación entre cualquier par de computadoras de cualquier red o fabricante, respetando los protocolos particulares de cada red individual.
Los protocolos TCP/IP proporcionan a los usuarios de las redes unos servicios de comunicación de datos tales como :

  • Transferencia de archivos entre equipos.
  • Conexiones remotas de equipos.
  • Correo electrónico.
  • Acceso a archivos distribuidos.
  • Administración de sistemas.
  • Manejo de ventanas.
  • Utilización de gateways con funciones de encaminamiento.

Red Digital de Servicios Integrados (RDSI)

RDSI se declara a menudo como la interfaz pública para telefonía y telecomunicaciones del futuro, aunque ha tardado mucho en surgir. RDSI integra datos, voz y señales de vídeo un una línea digital telefónica. El punto importante es que lleva servicios digitales a todo tipo de casas u oficinas. Aunque la mayoría de las compañías telefónicas se han cambiado ya al cable óptico y a la transmisión digital para enlaces dentro de y entre ciudades, el "lazo local" que conecta a muchos usuarios domésticos y de oficinas a la central de conmutación de la compañía telefónica utiliza todavía técnicas analógicas de señalización. RDSI también normaliza los servicios suministrados a los abonados a nivel internacional, de esta manera proporciona una forma de crear redes internacionales. La norma RDSI original es la RDSI de banda estrecha. La nueva norma desarrollada llamada ISDN de banda ancha (ISDN-B) trabaja en la gama del megabit al gigabit. La RDSI de banda estrecha tiene una velocidad máxima de 2 Mbps y trabaja sobre cables de cobre. Ahora RDSI se ve como una tecnología adecuada para usuarios remotos que acceden desde LANs de su compañía y para algunas conexiones LAN a LAN. RDSI también puede manejar el tráfico de fax y por otra parte, proporciona un método económico de establecer enlaces digitales con oficinas remotas, hasta que las necesidades del tráfico requieran líneas dedicadas más caras. Los servicios que RDSI proporciona actúan en los niveles superiores de los protocolos, en lugar de con una conexión telefónica. Aquí se enumeran algunos de los servicios.

  • . Servicios Portadores
    • Telefonía digital
    • Transmisión digital de datos


  • Teleservicios
    • Videotex
    • Correo electrónico
    • Facsímil
    • Conmutación de circuitos de datos (64 Kbps)
    • Conmutación de paquetes de datos (64 Kbps)
    • Frame Relay


  • Servicios suplementarios
    • Llamada abreviada
    • Identificación de llamada
    • Conferencia múltiple


La importancia de la prueba del software y sus implicaciones con la calidad del software no se pueden sobrevalorar.


El desarrollo de sistemas de software envuelve una serie de actividades de producción en que las posibilidades de que aparezca la fiabilidad humana son enormes. Los errores pueden empezar a darse desde el primer momento del proceso en el que los objetivos.





La prueba presente una interesante anomalía para el ingeniero de software. Durante las fases anteriores de definición y de desarrollo, el ingeniero intenta construir el software partiendo de un control abstracto y llegando a una implementación tangible.


Objetivos de la prueba


En un excelente libro sobre la prueba del software, Glen Myers [MYE79] establece una serie de reglas que sirven acertadamente como objetivos de prueba:


  1. La prueba es un proceso de ejecución de un programa con la intención de descubrir un error.
  2. Un buen caso de prueba es aquel que tiene una alta probabilidad de mostrar un error no descubierto hasta entonces.
  3. Una prueba tiene éxito si descubre un error no detectado hasta entonces.


Los objetivos anteriores suponen un cambio dramático del punto de vista. Nos quitan la idea que normalmente se tiene de que una prueba tiene éxito si no descubre errores. El objetivo es diseñar pruebas que sistemáticamente saquen a la luz diferentes clases de errores, haciéndolo con la menor cantidad de tiempo y esfuerzo.


Diseño de casos de prueba


El diseño de pruebas para el software o para otros productos de ingeniería puede requerir tanto esfuerzo como el propio diseño inicial del producto.





La prueba de la caja blanca es un método de diseño de casos de prueba que usa la estructura de control del diseño procedimental para derivar los casos de prueba. Mediante los métodos de prueba de la caja blanca, el ingeniero del software puede derivar casos de prueba que: 1) Garanticen que se ejercitan por lo menos una vez todos los caminos independientes de cada módulo, 2) Se ejercitan todas las decisiones lógicas en sus caras verdadera y falsa; 3) Se ejecutan todos los bucles en sus límites y con sus límites operacionales. Y 4) Se ejercitan las estructuras de datos internas para asegurar su validez.









La prueba del camino básico es una técnica de prueba de la caja blanca propuesta inicialmente por Tom McCabe [MCC76]. El método del camino básico permite al diseñador de casos de prueba derivar una medida de complejidad lógica de un diseño procesado  y usar esa medida como guía para la definición de un conjunto básico de caminos de ejecución.



Derivación de casos de prueba

El método de prueba del camino básico se puede aplicar a un diseño prosado detallado o a un código fuente. En esta sección, presentaremos la prueba del camino básico como una serie de pasos.


Matrices de grafos

El procedimiento de obtención del grafo de flujo e incluso la determinación de un conjunto básico de caminos es susceptible de ser mecanizado. Para desarrollar una herramienta software que ayude en la prueba del camino básico, puede ser bastante útil una estructura de datos denominada matriz de grafo.


Una matriz de grafo es una matriz cuadrada cuyo tamaño (o sea, el número de filas y de columnas) es igual al número de nodos del grafo de flujo.




Los bucles son la piedra angular de la inmensa mayoría de los algoritmos implementados en software. Y por ello debemos prestarles normalmente un poco de atención cuando llevamos a cabo la prueba del software.


La prueba de bucles es una técnica de prueba de la caja blanca que se centra exclusivamente en la validez de las construcciones de bucles. Se pueden definir cuatro clases diferentes de bucles [BEI83]: bucles simples, bucles concatenados, bucles anidados, y bucles no estructurados.


BUCLES SIMPLES. A los bucles simples se les debe aplicar el siguiente conjunto de pruebas, donde n es el número máximo  de pasos permitidos por el bucle.


BUCLES ANIDADOS. Si extendiéramos el enfoque de prueba d ellos bucles simples a los bucles anidados, el Nero de posibles pruebas crecería geométricamente a medida que aumentara el nivel de anidamiento. Esto nos llevaría a un número impracticable de pruebas.


BUCLES CONCATENADOS. Los bucles concatenados se puede probar mediante el enfoque anteriormente definido para los bucles simples, mientras que cada uno de los bucles sea independiente del resto.



Los métodos de prueba d ella caja negra se centra en los requerimientos funciónales del software. O sea, la prueba de la caja negra permite al ingeniero del software derivar conjuntos de condiciones de entrada que ejerciten completamente todos los requerimientos funcionales de un programa. La prueba de la caja negra no es una alternativa a las técnicas de prueba de la caja blanca. Más bien se trata de un enfoque complementario que intenta descubrir diferentes tipos de errores que los métodos de la caja blanca.

Partición Equivalente

La partición equivalente es un método de prueba de la caja negra que divide el dominio de entrada de un programa en clases de datos de los que se pueden derivar casos de prueba.






Hemos visto que la prueba se puede usar perfectamente para descubrir errores, pero no se puede usar para demostrar la corrección de un programa.





Dado que la prueba de software a menudo se lleva hasta el 40 por ciento del esfuerzo total de un proyecto de desarrollo de software, las herramientas que reduzcan el tiempo de prueba (sin reducir la exhaustividad) son muy valiosas. Teniendo en cuenta los posibles beneficios.