Primer Capitulo



6.    Capítulo I: HISTORIA Y CONCEPTOS BASICOS DE LOS SISTEMAS DE COMUNICACIONES ACTUALES.


6.1  HISTORIA DE LAS COMUNICACIONES

En esta parte de la investigación, comenzamos con una introducción a las comunicaciones por tal motivo se hace referencia a distintos sucesos ocurridos en las ultimas décadas que revolucionaron las comunicaciones; tomando hechos desde que es descubierto los efectos del electromagnetismo hasta la construcción del primer transistor, el crecimiento de las centrales telefónicas y el auge de la electrónica y su enfoque a las comunicaciones; entre otros sucesos que dieron pie a las transmisiones digitales y su paso a las técnicas de modulación para enviar información.
Christian Oersted descubre los primeros efectos del electromagnetismo. En un famoso experimento en la Universidad de Copenhagen, Oersted dispuso una brújula bajo un conductor eléctrico. Al hacer circular corriente por el conductor, la aguja de la brújula se mueve, demostrando que las corrientes eléctricas producen campos magnéticos.
Michael Faraday descubre la inducción, demostrando que los efectos descubiertos por Oersted son “reversibles”. Faradaylogra hacer circular corriente por conductores eléctricos que giran alrededor de un imán permanente. De hecho, se inventa el primer generador eléctrico, convirtiendo energía mecánica en energía eléctrica.
El 19 de junio de 1934, mediante una resolución del Congreso de Estados  Unidos, es creada la FCC (Federal Communications Comisión). La  FCC sustituyó a la “FRC (Federal Radio Comisión)”, creada anteriormente  en 1927, con el fin de regular el creciente caos existente en las bandas de  frecuencias, cada vez con más servicios inalámbricos. La FCC sería la encargada de regular los negocios de comunicaciones, tanto “alámbricos”  como inalámbricos, incluyendo la regulación y asignación de frecuencias del  espectro radioeléctrico.
Alec Reeves, un brillante ingeniero que trabajaba en Francia para la “International Western Electric Company”, desarrolla una idea que sería revolucionaria  en el futuro de las telecomunicaciones: la “Modulación  por Pulsos Codificados”, o  “PCM (Pulse Code Modulation)”. Desde el primer teléfono de Bell, la telefonía era completamente analógica. El audio era transmitido de un punto a otro mediante la variación de  una corriente continua. Las señales podían amplificarse  con las válvulas o tubos de vacío inventados por   Fleming y De Forest, pero el ruido introducido también era amplificado. Por  otro lado, las señales telefónicas analógicas podían ser fácilmente interceptadas y escuchadas. Alec Reeves desarrolló el primer  sistema de  audio digital, con fines militares. La segunda guerra mundial estaba por comenzar, y era necesario disponer de sistemas de transmisión telefónicas  más seguros. Si bien la idea fue patentada por Reeves, su popularización  debió esperar por varias décadas al desarrollo de nuevas tecnologías, (más  específicamente, a la invención del transistor). La tecnología de PCM se  popularizó sobre fines de la década de 1960, momento para el cual ya no  eran reclamables derechos por la patente. Alec Reeves no sólo es reconocido como el inventor del PCM, sino también  como precursor del RADAR, brindando invalorables aportes a los Aliados  en la Segunda Guerra Mundial. Reeves también tenía su lado “poco convencional”. Estuvo muy interesado en fenómenos paranormales, como la telepatía y la comunicación con personas difuntas. Durante su vida llevó  a cabo varios experimentos en este sentido, e incluso creía que él mismo  estaba siendo guiado por Michael Faraday, quien había muerto en 1867.
Comienza a funcionar la primera central automática del tipo “Crossbar” en Brooklyn y en Manhattan. La historia de las  centrales Crossbar se remontan a 1913, cuando J N Reynolds, trabajando para las compañías Bell, patenta un  sistema de conmutación automática basada en una “matriz”, similar a la utilizada por las centrales manuales,  pero con la posibilidad de realizar las conexiones en forma  automática. Sin embargo, al momento de la patente, la implementación práctica de este sistema no es posible.  Unos años más tarde, el ingeniero Gotthilf Ansgarius Betulander, junto con el ingeniero Palmgren (trabajando para Telverket, en  Suecia), realizan un diseño que puede ser fabricado en serie. La primer  central importante del tipo Crossbar fue instalada en Sundsvall, Suecia, en  1926, dando servicio a 3.500 abonados, y rápidamente creció en popularidad en Europa. Las compañías Bell, tardaron algunos años más en  implementar la tecnología Crossbar. En 1938 instalan sus primeras centrales, las “Crossbar #1”. Por su parte,  L M Ericsson comienza a fabricar centrales Crossbar en 1940.  Las centrales Crossbar utilizaban un sistema de barras horizontales y verticales, las que mediante pequeños movimientos, pueden hacer contactos entre sí. Esto forma una especie de “matriz”, donde es posible  poner en contacto cualquier fila con cualquier columna. Si bien parecería que el diseño requiere un crecimiento proporcional al cuadrado de líneas a conectar, el sistema se puede implementar en “etapas”, conteniendo cada  una de ellas un número reducido de filas y columnas. Esta implementación m permite el crecimiento de hasta miles de abonados. El diseño Crossbar (Crossbar #5) sería uno de los más exitosos en centrales públicas, llegando a tener decenas de millones de abonados en la  década de 1970.
En una entrevista realizada en 1973 a Arthur C. Keller, quien había trabajado para la ”Bell Telephone Laboratories”, se hace mención a la visita  que realizó la Bell a Suecia en la década de 1930, para ver sus sistemas Crossbar, y se puede apreciar la rivalidad entre las compañías, existente ya desde esa época.
También en 1938, la Bell introduce una innovación que perdura hasta en los  más modernos teléfonos: El “cable de rulo” para el microteléfono. El nuevo  tipo de cable es inmediatamente aceptado y popularizado.
Con el comienzo de la Segunda Guerra Mundial, los ejércitos Británicos y Estadounidenses dieron un empuje considerable al desarrollo de las primeras computadoras. En 1939 el  gobierno británico reclutó en Bletchley Park (cerca de  Londres) a varios científicos, con el fin de descifrar los  mensajes encriptados alemanes. Entre ellos estaba Alan Turing, quien, además de realizar importantes aportes teóricos, trabajó en el diseño de la máquina  “Colossus”, considerada actualmente como una de las  primeras computadoras electrónicas. Sin embargo, Colossus distaba de ser una computadora tal como las conocemos actualmente. En primer lugar, no disponía de almacenamiento interno de  programas. Para “programarla”, era necesario cambiar físicamente conectores y cableado. En segundo lugar, no era una máquina de propósitos generales, sino que estaba diseñada específicamente para funciones criptográficas, implementadas  con contadores y operaciones booleanas.
La primera Colossus se puso en funcionamiento en 1943. Se  basaba en la idea de universalidad de la máquina de Turing, estaba compuesta por más de 1.500 válvulas o tubos de vacío, la entrada de datos  era por medio de tarjetas perforadas y los resultados se almacenaban en  relés temporalmente hasta que se les daba salida a través de una máquina  de escribir. Era totalmente automática, medía 2.25 metros de alto, 3 metros  de largo y 1.20 metros de ancho. 1946 Por su parte, en Estados Unidos, John P. Eckert y John W. Mauchly construyeron durante los años 1943 a 1946, en la Universidad de Pennsylvania, uno de los primer computadores electrónicos, al que llamaron ENIAC (Electronic Numerical Integrator and Computer).  ENIAC estaba compuesto de 17.468 válvulas o tubos de vidrio al vacío (más resistencias, condensadores, etc.), con 32 toneladas de peso, y ocupaba un espacio de 2,40 metros de ancho por 30 metros de largo.  El calor de las válvulas elevaba la temperatura del local hasta los 50 ºC. Para  efectuar diferentes operaciones (“programaciones”), debían cambiarse las conexiones (cables) como en las viejas centrales telefónicas, lo cual era un trabajo  que podía tomar varios días.
El proyecto había sido patrocinado por el Ejército de los Estados Unidos, durante la  Segunda Guerra Mundial, con el objeto de  calcular con gran velocidad la trayectorias de proyectiles. El proyecto culminó luego del fin de la Segunda Guerra. ENIAC podía calcular la potencia 5000 de un número de 5 cifras  en 1,5  segundos. Podía resolver 5,000 sumas y 360 multiplicaciones por segundo,  pero su programación era terriblemente tediosa y debían cambiarse las válvulas continuamente. En las últimas fases de su diseño y construcción  actuó como consultor John Von Neumann. Las ideas utilizadas en la construcción de ENIAC no fueron del todo originales. En 1937, John Vincent Atanasoff, físico teórico de la Universidad  de Iowa, pasaba varias horas de su día aplicando manualmente métodos  numéricos para resolver la ecuación de Shrödinger, que derivaba en sistemas de ecuaciones lineales. Durante mucho tiempo Atanasoff había meditado acerca de métodos automáticos para la resolución de éste  tipo de problemas. Finalmente, en una fría noche del invierno de 1937, Atanasoff inventa los fundamentos básicos de los futuros computadores: utilizar el sistema binario para representar números, utilizar los dispositivos  electrónicos conocidos en ese momento (válvulas) para implementar las operaciones lógicas y utilizar “memorias binaras regenerativas”. Con estas ideas en mente, y junto con su asistente  Clifford E. Berry, Atanasoff diseña su “Atanasoff– Berry  Computer”, conocida como “ABC”. Para 1942,  la ABC se encontraba en funcionamiento, y podía resolver sistemas de hasta 30 ecuaciones lineales con sus 30 incógnitas. A fines de 1940,  John Mauchly (el futuro diseñador de  ENIAC) conoció a Atanasoff. Su interés común en computadores, llevaron a que Mauchly y Atanasoff mantuvieran fluida correspondencia, e incluso Mauchly fue invitado a pasar unos días en la propia  casa de Atanasoff, en junio de 1941. Durante su visita, Atanasoff mostró a Mauchly su computadora ABC, y le transmitió sus  principios básicos de funcionamiento, así como las ideas claves.
En 1942, las “prioridades” de la Segunda Guerra Mundial, llevaron a que  Atansoff y Berry abandonaran el proyecto ABC. Lamentablemente, no llegaron a patentar sus ideas. Cuando Mauchly comenzó el proyecto ENIAC en 1943, tenía muy presente  el trabajo de Atanasoff, y sus ideas claves, las que fueron tomadas como  base para su propio proyecto. Mauchly y Eckert presentaron  una solicitud  de patente, basados en su proyecto ENIAC, en 1947. La solicitud contenía  varios aspectos de las ideas relevantes en computadores electrónicos. La  patente les fue otorgada en 1964, y fue vendida a Sperry Rand. Cuando  Honeywell Inc. comienza a utilizar tecnología similar y decide no pagar por  los derechos a Sperry Rand, este último comienza un litigio. Los abogados  de Honeywell estudian el tema, y descubren los trabajos de Atanasoff, a  quien consultan en 1967. Atanasoff estudia la patente, y descubre que en  realidad está basada sobre sus propias ideas, transmitidas a Mauchly durante la visita a su casa en 1941. Esto da pie a que los abogados de  Honywell Inc argumenten que la patente entregada originalmente a Mauchly  y Eckert y luego vendida a Sperry Rand, es inválida, ya que las ideas originales eran de Atanasoff. Finalmente, en 1973 el Juez Larson, de Minnesota,  declara inválida la  patente entregada a  Mauchly y Eckert, y atribuye las ideas a  Atanasoff:  “...Eckert and Mauchly did not themselves  first invent the automatic electronic digital computer, but instead derived that subject matter from one Dr. John Vincent Atanasoff…”
El 17 de junio de 1946, en St. Louis, Missouri, AT&T presenta al mercado el  primer sistema comercial de telefonía móvil vehicular para el público. El sistema funcionaba en la frecuencia de 150 MHz, utilizando 6 canales espaciados 60 kHz.
Los científicos William Shockley, John Bardeen, y Walter  Brattain, trabajando para los laboratorios Bell, buscaban un  reemplazo para las válvulas de vacío. El primero de julio  de 1948 el primer transistor en la historia de la Humanidad  es dado a conocer. El nombre “transistor” fue dado por sus  inventores,  como abreviación de “transit resistor”. Muchos  califican a ésta como la invención más importante del siglo  XX. Basta dar una mirada a lo que tenemos alrededor, para darnos cuenta lo acertado de ésta afirmación. El primer transistor utilizaba la tecnología conocida como “punto de contacto”, y se basaba en las propiedades semiconductoras del germanio. Poco más tarde, Shockley  creó el “transistor de unión”. En setiembre de 1951 los laboratorios Bell patentaron la tecnología de fabricación de  ambos tipos de transistores, y la vendieron. La tecnología fue comprada por RCA, Raytheon, General Electric, Texas Instruments y Transitron. Los primeros transistores fabricados en serie fueron de germanio, usando la tecnología de “punta de  contacto”. En 1955 se fabricaron los primeros transistores de silicio.
En 1956 Shockley, Bardeen, y Brattain obtuvieron el Premio Nobel de Física “por sus investigaciones  en semiconductores y su descubrimiento del efecto  del transistor”. En 1972 John Bardeen recibió otro Premio  Nobel de Física “por su desarrollo conjunto de la teoría de la superconductividad, usualmente llamada Teoría BCS”. El primer transistor fabricado en gran escala fue el  CK722, de Raytheon, en 1953. 
Claude E. Shannon pasó quince años de su vida en los laboratorios Bell, en una asociación muy fructífera con  muchos matemáticos y científicos de primera línea como Harry Nyquist, Brattain, Bardeen y Shockley, entre otros. Durante este período Shannon trabajó en  muchas áreas, siendo lo mas notable lo referente a la  teoría de información. En Julio de 1948, un desarrollo  publicado bajo el nombre de "Una Teoría Matemática  de la Comunicación", sentaría las bases teóricas que permiten calcular la capacidad de información que  se puede transmitir por un canal. El contenido de su  artículo es conocido habitualmente como “Teorema de Shannon” o “Teorema de la información”.
El transistor acababa de ser inventado, pero aún no era producido en serie,  por lo que Eckert y Mauchly continuaron el desarrollo de sus computadores con tecnología de válvulas. En marzo de 1951, 5 años luego del proyecto  ENIAC, se realizan las pruebas formales de aceptación de un nuevo computador, al que llamaron UNIVAC (“Universal Automatic Computer”). UNIVAC fue la primer computadora fabricada y vendida “en serie”. En total,  se fabricaron 46 UNIVAC I, entre 1951 y 1957. Las primeras fueron compradas por agencias del Gobierno y el Ejército de Estados Unidos, pero  varias fueron instaladas en empresas privadas (General Electric, compañías de seguros, etc.) y Universidades. El primer éxito público de  UNIVAC se dio durante las elecciones presidenciales estadounidenses de 1952.
La  cadena radial y televisiva CBS utilizó a UNIVAC (el número de serie 5)) para predecir el resultado de las elecciones. Los  reporteros de la  CBS recolectaban datos en diferentes puntos de votación, y los transmitían  telefónicamente a Filadelfia, dónde se encontraba UNIVAC. Tres operarios ingresaban los datos mediante los “UNITYPER” que disponía UNIVAC.
Eran ingresados por triplicado, y UNIVAC corregía los posibles errores de  typeo. El programa de UNIVAC predijo correctamente la victoria de Eisenhower, el que fue dado a conocer por la CBS. Tres años después,  Isaac Asimov publica el cuento “Sufragio Universal” (“Franchise”), en la que  aparece por primera vez “MULTIVAC” (clara referencia a UNIVAC). En el  cuento de Asimov, MULTIVAC decide quien será el próximo presidente de  los Estados Unidos ¡tomando en cuenta únicamente un voto! En este cuento, MULTIVAC elige muy meticulosamente al votante “promedio”. Según Asimov, MULTIVAC “....tenía más de un kilómetro de longitud y tres  pisos de altura, y cincuenta técnicos recorrían continuamente los pasillos de  la estructura. Era una de las maravillas del mundo”. UNIVAC medía 4,2  metros de largo, 2,4 metros de ancho y 2,5 metros de altura. Utilizaba 5.200  válvulas o tubos de vacío y consumía 125 kilowatt de potencia. 1956 El 26 de setiembre de 1956 fue oficialmente inaugurado el primer cable trasatlántico para el transporte de conversaciones telefónicas. Desde  1927, existía un servicio radio telefónico entre Estados Unidos y Gran Bretaña. Sin embargo, este servicio era de mala calidad, dependía de  factores atmosféricos y era de baja capacidad. El  primer cable telefónico trasatlántico, TAT–1, consistía en dos cables coaxiales con aislamiento  de polietileno, separados aproximadamente 30 kilómetros. Cada uno de ellos podía transportar hasta 36 conversaciones en una dirección, lo que  permitía 36 conversaciones bidireccionales simultáneas, de las cuales 30 prestaban servicio entre Gran Bretaña y Estados Unidos y 6 entre Gran Bretaña y Canadá. Fue necesario utilizar 51  estaciones repetidores sumergidas en el fondo del océano, con tecnología de válvulas o tubos de vacío. El primer día en servicio, el nuevo cable  comunicó a 588 llamadas entre Londres y EEUU y 119 entre Londres y Canadá, un 85% más que el promedio diario de los servicios radiotelefónicos existentes.
Las necesidades de telecomunicaciones de las empresas crecían junto con  el desarrollo de las telecomunicaciones públicas. Los sistemas del tipo “key  system” eran ya populares. Estos sistemas electromecánicos, que comenzaron a difundirse en la década de 1920, consistían en conectar varias líneas urbanas a distintos botones o teclas de un mismo teléfono. Cada teléfono era conectado  con varios cables (por lo menos un por cada  línea telefónica, pero se requerían otros varios para controles, encendido de luces, etc.) hasta una caja central, dónde se realizaban todas las conexiones y empalmes  necesarios. En 1958, las Compañías Bell lanzaron al mercado el “Call Director”, un sistema “key system” ¡que requería 150 pares para sus consolas!
Mientras la mayor parte de las aplicaciones continuaban utilizando tecnologías de válvulas o tubos de vacío, la electrónica de semiconductores continuaba su desarrollo. En 1959, dos ingenieros independientes y trabajando para  empresas diferentes, desarrollaron los primeros circuitos integrados de la historia. Jack St. Clair Kilby ,  trabajando para Texas Instruments, desarrolló el primer circuito integrado de germanio. Por su parte, Robert N. Noyce, trabajando para Fairchild Semiconductor, desarrolló el primer circuito integrado de silicio. Kilby continuó trabajando para Texas Instruments, logrando varias patentes (además de las correspondientes  a los circuitos integrados). Entre  sus invenciones se destaca el desarrollo de la primer  calculadora de bolsillo. Kilby recibió el Premio Nobel  de Física en 2000, “por trabajos básicos en tecnologías de  la información y la comunicación”, y “por su parte en la invención del circuito  integrado”.  En 1959 Noyce fue Gerente General de Fairchild Semiconductor. En 1968  decidió crear su propia compañía, y con algunos colegas fundó INTEL. Recibió la Medalla de Honor de IEEE en 1978, “por sus contribuciones a los  circuitos integrados de silicio”.
Mientras las posibilidades de comunicación a través del atlántico se ampliaban con el tendido de cables sobre el lecho del océano, también lo  estaban haciendo a través del espacio. En 1958, Rusia logró poner en órbita el primer satélite artificial en la historia de la humanidad, el Sputnik 1. El Sputnik llevaba a bordo un radiofaro el cual emitía una señal en las frecuencias de 20 y 40 MHz, la que podía ser recibida por simples  receptores en tierra.  Estados Unidos no se quedaría atrás. La primera voz humana retransmitida  desde el espacio fue la del presidente norteamericano Dwight D. Eisenhower, cuando en 1958 en el contexto del proyecto SCORE se puso  en órbita un misil ICBM Atlas liberado de su cohete acelerador con un  mensaje de Navidad grabado por el dirigente. La  grabadora podía también almacenar mensajes para  retransmitirlos más tarde, lo que dio origen a los llamados satélites de retransmisión diferida. Un Satélite posterior de este tipo fue el Courier 1B, lanzado el 4 de Octubre de 1960. Este satélite militar podía almacenar y retransmitir hasta 68.000  palabras por minuto, y empleaba células solares en  lugar de los acumuladores limitados del SCORE.
Poco tiempo después, Estados Unidos puso en órbita sistemas pasivos. Los Echo 1 y 2 eran grandes globos reflectores. Los ingenieros concluyeron que era necesario un sistema de transmisión activo.  El primer satélite de comunicaciones verdadero, el Telstar 1, fue lanzado  a  una órbita terrestre baja, de 952 x 5632 km. Era también  el primer satélite  de financiación comercial, a cargo de AT&T. Telstar fue desarrollado en los  laboratorios Bell, a cargo de John R. Pierce. El Telstar 1 se lanzó el 10 de julio de 1962. Las  estaciones terrestres estaban situadas en Andover, Maine (Estados Unidos), Goonhilly Downs (Reino Unido) y Pleumeur-Bodou (Francia). Salvo por dos incidentes, todo  funcionó perfectamente. El primer incidente consistió en pequeños problemas en la estación terrestre, que fueron rápidamente solucionados. El  segundo incidente, se debió a no haber previsto que al estándar de polarización utilizado en Gran Bretaña era diferente al utilizado en Estados  Unidos. La transmisión entre Estados Unidos y Francia fue excelente desde  el comienzo. El problema de polarización fue resuelto, y el 23 de julio de  1962 se emitió la primer transmisión televisiva internacional.
Hasta el momento, salvo en alguna aplicación militar o de laboratorio, todas las comunicaciones existentes eran analógicas. Las técnicas de digitalización de la voz (PCM) desarrolladas por Alec Reeves en 1937 no  habían encontrado aplicación práctica, hasta 1962, año en el que es instalado el primer sistema de transmisión digital, al que llamaron “T1”. Dado que en el mismo año se había puesto en órbita el Telstar 1, la “T”  indicaba “Terrestre” (aunque en varios artículos se menciona que la “T” indica “Transmisión”). El sistema, vigente y de gran difusión actual, consiste  en digitalizar y multiplexar 24 conversaciones telefónicas en un flujo digital  de 1.544 Mb/s. La primer instalación se realizó en Chicago. 1963 La “Western Electric” lanza al mercado el primer teléfono de tonos, el modelo 1500.  Este teléfono  tenía 10 botones (0 al 9). El * (asterisco) y el  # (numeral) fueron introducidos en 1967, en el modelo  2500. Los teléfonos de tonos utilizan una matriz de  4 filas por 4 columnas. Cada fila y cada columna  corresponden a una  frecuencia determinada. Al pulsar un dígito, el teléfono genera una señal compuesta por la suma de  dos frecuencias, que pueden ser luego fácilmente detectadas en la central  pública, por medio de filtros adecuados. La elección de este sistema de  señalización se basa en el trabajo de  L. Schenker, de 1960, en el que se  estudian varias posibles sistemas de señalización y se concluye que el de  tonos multifrecuentes es el mejor.
Un comité formado por representantes del gobierno y la industria desarrolla el código ASCII  (American Standard Code for Information Interchange), para permitir  el  intercambio de información entre computadores desarrollados por diferentes empresas.  El código incluía la identificación de las letras del  alfabeto inglés (A a Z, pero sin tildes, ñ, etc.), los números (0 al 9), caracteres de puntuación y algunos caracteres especiales (como “retorno de  carro”, “salto de línea”, etc.). Cada carácter se representa mediante un conjunto de 7 bits, permitiendo por lo tanto un total  de 128 caracteres. La estandarización de palabras de 8 bits (“bytes”) fue  establecida posteriormente, en 1964, con el lanzamiento del modelo 360 de  IBM
En 1964, Paul Baran hace pública una serie de trabajos “sobre comunicaciones distribuidas”  realizados en la RAND (organización sin fines  de lucro orientada a la investigación y el desarrollo, patrocinada  originalmente por el Ejército de los Estados Unidos). Paul Baran, un Ingeniero nacido en Polonia, sentó las bases teóricas de las redes de  paquetes, que actualmente utilizan las redes LAN, WAN e Internet. Baran  trabajó inicialmente en la Eckert Mauchy Computer Company, en la época  del diseño de ENIAC y UNIVAC. Sin embargo, su trabajo en este período  consistió en el estudio de los tiempos medios entre fallas de cada uno de  los componentes, y en base a ellos en la predicción del tiempo medio entre fallas de estos computadores. Luego de su estudio llegó a la conclusión de  que era prácticamente imposible que estos equipos funcionaran, por lo menos de manera suficientemente confiable, por lo que decidió cambiar de  trabajo.
Trabajó en radio telemetría para el ejército, y en procesamiento de datos de radares, y durante las noches, asistió a clases complementarias en la UCLA. Sobre fines de la década de 1950 comenzó a  trabajar en la RAND. En plena “Guerra Fría”, uno de  los problemas que preocupaban al  Ejército  Norteamericano era la vulnerabilidad de sus comunicaciones. Baran realizó un estudio de la red  telefónica instalada (esencialmente la red de larga distancia, de AT&T), llegando a la conclusión que la  misma era sumamente vulnerable a ataques, ya que si dejaban de funcionar algunas pocas centrales claves, podían quedar incomunicados un gran número de puntos estratégicos. Pensando en el diseño de una red mucho más confiable, Baran llegó a la conclusión que  dicha red debía ser digital, en forma de malla, y debían utilizarse pequeños  “bloques de mensajes” que debían ser transmitidos desde el origen hasta el  destino, pasando por los nodos intermedios, en dónde se regeneraría la señal y se decidiría el mejor enrutamiento para cada “bloque de mensaje”.
Según sus cálculos, esta red era perfectamente realizable, económicamente viable y sumamente robusta, ya que ninguna falla puntual  podía dejar incomunicada a gran parte de la red. Los conceptos básicos  fueron descritos en 12 publicaciones internas de la RAND y luego  compilados y publicados en “On Distributed Communications”. Baran presentó sus trabajos a los altos jerarcas de AT&T, ya que parecía la  empresa ideal para realizar los desarrollos prácticos y la implantación de  este tipo de red. Sin embargo, la mayoría de estos jerarcas no entendieron los nuevos conceptos (la telefonía en la década de 1960 era analógica, y  los conceptos de conmutación digital eran inexistentes hasta el trabajo de  Barban), y sus trabajos no tuvieron receptividad en esta compañía.
Luego de 10 años de desarrollo, y a 17 años del invento del transistor, es  instalada la primera central telefónica pública electrónica, en Succasunna, Nueva Jersey. El modelo 1 ESS, desarrollado en los laboratorios Bell, utilizaba 55.000 transistores  y 160.000 diodos, además de los correspondientes componentes pasivos. Estos componentes estaba dispuestos en cientos de placas. La conmutación de esta central telefónica  era realizada con relés, que memorizaban su último estado, por lo que únicamente requerían corriente para cambiarlos de estado (es decir, en el  establecimiento y corte de las comunicaciones). El procesamiento era realizado por una CPU duplicada, en la que se comparaba paso a paso el  resultado de cada operación. El programa era almacenado en memoria,  introduciendo por primera vez el concepto de “Control por Programa Almacenado” (Stored Program Control), un nombre de marketing para indicar que la central telefónica disponía de memorias electrónicas.  La nueva CPU electrónica permitió incorporar algunas nuevas funciones, como ser “desvíos de llamadas” y “discado abreviado”. Desde el punto de  vista de la conmutación, la 1 ESS seguía siendo una central analógica, ya  que el audio no era digitalizado. 1966 A comienzos de la década de 1960, AT&T diseñó el primer MODEM, al que  llamó “Dataphone”. Este dispositivo convertía datos en señales acústicas que podían ser transportadas por la red telefónica. El Dataphone estaba  basado en los trabajos de A.W. Morten y H.E. Vaughan de 1955.  Sin embargo, no fue hasta 1966 que tuvo aplicación práctica, gracias a los  trabajos de John Van Geen, del Stanford Research Institute, que permitieron detectar correctamente la información, aun en líneas con ruidos.
Van Geen necesitaba conectarse a un computador central, mediante líneas telefónicas de larga distancia. Los módems existentes en aquella época (instalados por las compañías Bell), tenían malos resultados,  debido a los ruidos existentes en las comunicaciones de larga distancia. Van Geen trabajó en el diseño de un MODEM con acoplamiento acústico que sea inmune a los ruidos de la línea telefónica. En aquella época, estaba prohibido conectar a la línea cualquier dispositivo que no fuera diseñada y vendida por la propia compañía telefónica. Los módems de acoplamiento  acústico se acoplaban a los tubos o micro teléfonos del aparato que instalaba la propia compañía telefónica, por lo que de esta manera no se  violaba la legislación existente.
Este tipo de módems, con acoplamiento acústico, fue usado hasta la década de 1980. Los primeros módems trabajaban a 300 y 1200 bps, con modulación FSK. Sobre fines de la década de 1960, aparecieron módems de 4800 bps, utilizando modulación PSK, y de 9600 bps usando QAM con constelaciones  de 16 puntos 1969 En julio de 1969, luego de casi 10 años de carrera espacial, el Apolo 11  desciende sobre la Luna. Neil Armstrong realiza la primer transmisión televisiva desde otro mundo, con su famosa frase  “...es un pequeño paso  para un hombre, pero un gran salto para la humanidad...”
En 1969, mientras Armstrong caminaba sobre la Luna, entraba en funcionamiento la primera red de computadoras, la ARPANET, consistente  en 4 nodos, ubicados en UCLA, el Stanford Research Institute (SRI), la  Universidad de Utah, y la UC Santa Barbara. El proyecto había comenzado en 1962, en la ARPA  (“Advanced Research Projects Agency”), una de las  agencias de investigación del Departamento de Defensa Norteamericano. En este año, el Dr. J.C.R.  Licklider  fue nombrado Director de ARPA  – IPTO  (Information Processing Techniques),  con el fin de  estudiar cómo debía ser la red de comunicaciones  del ejército. Licklieder había publicado anteriormente un trabajo acerca de la interacción cooperativa entre hombres y computadoras. En este  trabajo, Licklieder presenta un futuro en  el que los hombres y las computadoras vivirán en “simbiosis”, dependientes uno del otro: “... parece  razonable prever, para dentro de 10 a 15 años, un  ‘centro pensante’, que incorporará las funciones actuales de las bibliotecas, con varias mejoras en el  almacenamiento y búsqueda... La imagen es la de una  red de estos centros, conectados entre si con líneas de  comunicaciones de gran ancho de banda y a usuarios  individuales por medio de servicios cableados contratados. En este sistema, la velocidad de las computadoras será balanceada, y el costo de las gigantescas memorias y los sofisticados programas necesarios serán divididos entre el número de usuarios...”. Si bien el artículo pudo haber subestimado los plazos y en  algunos aspectos las dificultades de la  inteligencia artificial (mencionada en  el artículo), es sin duda, una acertada predicción aventurada para la época  en que fue publicada (1960). Licklieder entendió que las futuras redes debían ser digitales, con conmutación de paquetes (tal como lo estaba proponiendo Baran desde la RAND) y debían conectar a todas las computadoras existentes. Lick  (como era conocido en la ARPA), llamó a  ésta la “Red Intergaláctica” (“Inter-Galactic Network”). Licklieder sentó las bases del trabajo que daría lugar a ARPANET. En 1966 Robert Taylor tomó  el lugar de  Licklieder, y contrató al Dr. Lawrence (Larry) G. Roberts como responsable del proyecto ARPANET, que llegó a sus primeros logros en 1969. En un resumen de sus trabajos, publicado en 1971, Larry Roberts indica  “... lo que se necesitaba era un servicio de mensajes en el cual  cualquier computadora pueda transmitir un mensaje destinado a cualquier otra computadora y estar segura que será entregado correcta y rápidamente....”. Fue el nacimiento de Internet.
Hasta comienzos de la década de 1970, los medios de transmisión utilizados en telecomunicaciones consistían en cables de cobre (pares trenzados o más recientemente cables coaxiales) y el “vacío”, utilizado en  las comunicaciones inalámbricas.  La teoría de utilizar la luz como medio de  transmisión de información era muy antigua, pero técnicamente impracticable. En 1880, Alexander Graham Bell demostró que la luz podía  transportar señales de voz por el aire, sin necesidad de utilizar cables. El  “Fotofono” de Bell reproducía voces detectando las variaciones de luz solar  que llegaban a un receptor. Su teoría era perfectamente correcta, pero no  era práctica en su época.
El interés en las tecnologías de fibras ópticas comenzó a crecer significativamente por 1950, cuando se patentó un método que utilizaba un  vidrio en forma cilíndrica, de dos capas como guía de onda para la luz. En los comienzos de 1960, se utilizó por primera vez un “Láser” como fuente de luz para las primeras fibras ópticas, con resultados asombrosos. Sin embargo, el alto costo del láser óptico de aquella época impedían el uso  comercial de ésta tecnología. A finales de  la década de 1960 se descubrió que las altas pérdidas de luz en las fibras ópticas  eran debidas mayoritariamente a las impurezas del vidrio, y no a sus propiedades intrínsecas.
A principios de 1970, los ingenieros Robert  Maurer, Peter Schultz y Donald Keck  de la  Corning Glass Works refinaron el proceso  de construcción de las fibras ópticas, consiguiendo pérdidas de luz muchos menores,  y permitiendo el uso de fuentes de luz de menor costo, como los LEDs. En 1970 consiguieron un pérdida menor al 1% en un kilómetro de Fibra.
A fines de 1972, Northern Telecom. (Actualmente Nortel Networks) diseña la primer PBX digital. En menos de 3 años, esta PBX (conocida como SG-1 o PULSE) fue instalada en más de 6.000 empresas. La PULSE fue rediseñada, convirtiéndose en una central privada totalmente digital, implementando conmutación digital por división de tiempo (TDM). Estenuevo modelo, fue conocido como SL-1.
En 1972, Robert (Bob) Metcalfe comenzó a trabajar para Xerox, en Palo Alto Research Center (PARC). Anteriormente, Metcalfe había trabajado en el proyecto ARPANET. Para una confernencia donde se haría unapresentación de ARPANET, Metcalfe escribió el artículo “Scenarios for the Arpanet”, y quedó a cargo de una demostración pública del sistema. Durante esta demostración, Metcalfe recuerda la siguiente anécdota: “Yo  estaba sentado frente al terminal, un estudiante graduado con una gran y tupida barba roja, dando un paseo por esa red a diez ejecutivos de AT&T,  todos ellos vistiendo elegantes trajes a rayas..., y en el medio de la demostración – por primera vez en tres días – el sistema dejó de funcionar.  Miré hacia arriba, y ellos... estaban felices de que no hubiera funcionado. Estaban sonriendo”  En Xerox le fue asignada la tarea de desarrollar un mecanismo para interconectar los computadores que en ese momento se estaban desarrollando en la Compañía. Inspirado en los trabajos publicados por la Universidad de Hawaii, respecto a la red “Alohanet”, en 1973 Bob  Metcalfe desarrolló una nueva tecnología de comunicación entre computadores, a la que llamó “Ethernet”. Ethernet fue tan exitosa, que en 1980 varias compañías la  adoptaron. Digital, Intel y Xerox comenzaron a usarla, a  velocidades de 10 Mb/s, convirtiéndola en un “estándar de  hecho”.  En febrero de 1980 la Sociedad de Computación del IEEE  realizó la primer reunión del “comité de estandarización de  redes de área local” (“Local  Network Standards Committee”), al que fue asignado el número 802 (simplemente el siguiente número secuencial de los proyectos que estaban en curso en la IEEE). En 1983
Ethernet es estandarizada como IEEE 802.3 (10 Base 5). Metcalfe fundó en 1979 la compañía 3Com (las tres “Com” provienen de  Computers, Communication, Compatibility).
El Dr. Martín Cooper, en esos momentos Gerente  General de la división de Sistemas de Comunicación en Motorola, realiza la primer llamada desde un teléfono celular. El 3 de  abril de  1973. Cooper, caminando por las calles de Nueva  York, realizó la llamada inaugural desde su flamante teléfono celular, discando el número de   su colega y rival Joel Engel, quien trabajaba para  los laboratorios Bell. Los laboratorios Bell habían introducido los conceptos de la tecnología celular en 1947, pero Motorola fue la primer compañía en diseñar y fabricar un teléfono móvil celular. El invento había sido largamente esperado, y varias veces utilizado por Holywood en sus películas “futuristas”,  entre las que vale la pena recordar a la serie “Get Smart”  o “El agente F86”, de 1965, con su famoso “Zapatófono”,  y al “Batifono”, de 1966, utilizado por Batman y Robin (aunque éste último no era un teléfono celular independiente, sino que estaba ligado al Batimóvil).
En 1976 es inaugurada en Chicago la primer central pública con conmutación digital por división de tiempo (TDM), la No 4 ESS. El proyecto,  de los laboratorios Bell, fue llevado a cabo por el Ingeniero H. Earle Vaughan.  La 4 ESS podía conectar 550.000 llamadas por hora. El trabajo había  comenzada en 1955, con el proyecto ESSEX (“Expermimental Solid State  Exchange), del cual Vaughan era el principal responsable. Durante el proyecto ESSEX, Vaughan sentó las bases para la conmutación digital, basándose  en la técnica PCM y en la multiplexación por división de  tiempo TDM. Entre 1962 y 1965, Vaughan estuvo a cargo del sistema 1 ESS. En 1968 comienza el proyecto  4 ESS, culminando en 1976 con la instalación de la primera central pública con conmutación digital. Vaughan  se retiró luego de finalizado este proyecto. Vaughan recibió la Medalla de Honor  de la IEEE en 1977,  “por su visión, contribución técnica y liderzazo en el desarrollo del primer conmutador telefónico de alta capacidad con tecnología de modulación por impulsos  codificados (PCM) y división temporal (TDM)”.
El primer prototipo de sistema celular comercial es instalado en Chicago,  por AT&T, en 1977. En 1978, más de 2000 celulares son probados por el  público. En 1979 el primer sistema celular comercial comenzó a funcionar  en Tokio.
Finalmente, en 1982, la FCC autoriza el servicio comercial de telefonía celular en Estados Unidos. Un año después, en 1983, el primer sistema  comercial con tecnología AMPS (Advanced Mobile Phone Service)  comienza a funcionar en Chicago, luego de 35 años de introducidos los primeros conceptos de telefónica celular, y a 10 años de la fabricación del  primer teléfono celular. Por su lado, la introducción de la telefonía celular en Europa comenzó en  1981,  con el sistema NMT450 (Nordic Mobile Telephone) en Suecia, Finlandia y Dinamarca. Fue el primer sistema celular con cobertura multinacional. En 1985 Gran Bretaña comienza a utilizar el sistema TACS  (Total Access Communications System). Luego, Alemania introduce el sistema C-Netz, Francia el Radiocom2000 e Italia el RTMI/RTMS. Pasados  los mediados de la década de 1980, Europa tenía 9 sistemas celulares analógicos, incompatibles entre sí. A esa altura, las compañías y estados europeos, deciden comenzar a trabajar en conjunto en un nuevo estándar,  común para todos los países, y con tecnología digital. Este nuevo estándar  sería el GSM. Por su lado, Estados Unidos no sufre de problemas de incompatibilidad, ya que su sistema analógico AMPS se populariza cada  vez, y no ve como necesidad inmediata la digitalización del sistema. 1983 En Francia, en 1983, es lanzado oficialmente “Minitel”, un sistema de directorio electrónico. El sistema consiste un una red de datos a nivel nacional, dónde en cada hogar se instala un terminal con acceso a una base de datos centralizada de directorios y servicios. El terminal consiste en una pantalla de texto y un teclado, generalmente integrados en un mismo equipo físico.  Años antes de la popularización de Internet, Francia contaba con una  red  de datos, que llegaba prácticamente a todos los hogares, y sin fallas durante 20 años.
A comienzos de la década de 1980 se comenzó a sentar las bases conceptuales para una nueva red telefónica, con tecnología digital hasta los  terminales de abonado. Esto dio origen a la primera versión de la recomendación I.120 de la CCITT (actualmente ITU-T), que describe lineamentos generales para implementar un nuevo concepto en telefonía: ISDN (“Integrated Services Digital Networks”) o RDSI (“Red Digital de Servicios Integrados”). Con ISDN se proponía llegar digitalmente hasta los  abonados, y brindar servicios de valor agregado de telefonía y datos. Sin  embargo, ISDN no tuvo el éxito que se esperaba a sus comienzos. Varios  problemas de incompatibilidades entre  diversos fabricantes retrasaron la masificación de este servicio. Para cuando el servicio podría haber crecido,  nuevas tecnologías (como xDSL o cablemodem) ya estaban ingresando en  el mercado, con mejores servicios y a precios más competitivos. Sin embargo, ISDN tiene aún mucha importancia, además de haber sido el primer sistema estandarizado de telefonía digital hasta los abonados.
En 1985, la CCIA (Computer Communications Industry Association) solicitó  a la EIA (Electronic Industries Alliance) realizar un estándar referente a los  sistemas de cableado. En esa fecha se entendió que era necesario realizar  un estándar que contemplara todos los requerimientos de cableado de los  sistemas de comunicaciones, incluyendo voz y datos, para el área corporativa (empresarial) y residencial. La EIA asignó la tarea de desarrollar  estándares de cableado al comité “TR-41”. El resultado de este esfuerzo,  llevado a cabo desde 1985 hasta el día de hoy, ha sido la realización y aceptación de un conjunto de recomendaciones (llamadas “estándares”) acerca de las infraestructuras de cableado para los edificios comerciales y residenciales. Entre estos estándares se encuentran el ANSI/TIA/EIA 568, referente a los cables y sus categorías (Categoría 3, 4, 5, 5e, 6...) , el  ANSI/TIA/EIA 569, referente a los espacios y canalizaciones para telecomunicaciones, y el ANSI/TIA/EIA 607, referente a los aterramientos para telecomunicaciones, entre otros 1988 Comienza a funcionar en 1988 el primer cable trasatlántico de fibra óptica,  el TAT-8, con 6.600 km de longitud, uniendo Estados Unidos y Francia. Tenía una capacidad de 40.000 conversaciones telefónicas simultáneas (10 veces más que el TAT-7 existente en la época,  y 1.000 veces más que el TAT-1, instalado en  1956).
La “World Wide Web” (www) fue creada en 1989 por Tim Barners Lee en el Instituto Europeo de Investigación de Física de Partículas (CERN) en Ginebra (Suiza). Barners-Lee presentó los conceptos en un artículo publicado en 1989, dónde se propone un sistema para mantener y compartir la información de los trabajos realizados por los físicos del CERN.  Este sistema, llamado “Mesh” originalmente,  fue bautizado en 1990 por Barners-Lee como “World Wide Web”.  Barners-Lee se basó  en la idea de “Hipertexto”, introducida en 1950 por Ted Nelson. Actualmente Barners-Lee dirige el “World Wide Web Consortium” (W3C), un foro abierto para compañías y organizaciones con la misión de llevar la web a su máximo potencial.
En 1990 cuatro empresas privadas (Digital Equipment, StrataCom, Northern  Telecom y Cisco) deciden reunir sus esfuerzos para implementar un protocolo de comunicaciones interoperable entre sus equipos. La “Banda de  los Cuatro” (“Gang of Four”), como fueron denominados en su momento, sentó las bases de la tecnología de Frame Relay, y en 1991 estableció el  “Foro de Frame Relay” (Frame Relay Forum). Rápidamente se sumaron muchas otras empresas, y al poco tiempo AT&T comenzó a ofrecer servicios públicos de Frame Relay.
En 1995 fue instalada la primer aplicación comercial con tecnología DWDM  (Dense Wavelength Division Multilplexion), llegando a velocidades de 8.4  Tb/s, lo que es suficiente para más de 100 millones de conversaciones telefónicas simultáneas.
En octubre de 1996 es ratificada la versión 1 de H.323, por el grupo de  estudio 16 de la ITU-T. H.323 es el primer estándar para la transmisión de  multimedia (voz, video y datos) a través de redes de paquetes. La primer  versión era relativamente básica, y fue mejorada sucesivamente en 1998  (versión 2), 1999  (versión 3), 2001 (versión 4) y 2003 (versión 5).
En 1998 las compañías Ericsson, Nokia, IBM, Toshiba e Intel formaron un “Grupo de Interés Especial” (SIG = Special Interest Group) para desarrollar una tecnología de conectividad inalámbrica entre dispositivos móviles de  uso personal, que utilizara la banda no licenciada de frecuencias (ISM). Fue  el nacimiento de Bluetooth. El nombre Bluetooth tiene sus orígenes en Harald Blåtand (en Inglés Harald I Bluetooth), quien   fue Rey de Dinamarca, entre los años 940 y el 985. El  nombre “Blåtand” fue probablemente tomado de dos viejas palabras danesas: 'blå', que significa “piel oscura” y 'tan' que significa “gran hombre”. Como buen Vikingo, Harald consideraba honorable pelear por tesoros en tierras extranjeras. En 960 llegó a la  cima de su poder, gobernando y unificando Dinamarca y Noruega. Así como el antiguo Harlad unificó Dinamarca y Noruega, los creadores de Bluetooth esperan que ésta  tecnología unifique los mundos de los dispositivos informáticos y de telecomunicaciones.
En marzo de 1999 es aprobado el RFC 2543, por el grupo de estudio  MMUSIC del IETF, dando origen oficial al protocolo SIP (Session Initiaton  Protocol). SIP tiene sus orígenes a fines de 1996, como un componente del  “Mbone” (Multicast Backbone), El Mbone, era una red experimental montada sobre la Internet, para la distribución de contenido multimedia, incluyendo charlas, seminarios y conferencias de la IETF. Uno de sus componentes esenciales era un mecanismo para invitar a usuarios a escuchar una sesión multimedia, futura o ya establecida. Básicamente un  “protocolo de inicio de sesión” (SIP).
En junio de 2002, el RFC 2543 fue reemplazado por un conjunto de nuevas  recomendaciones, entre las que se encuentran los RFC 3261 al 3266. 2000 A partir de 1997 y hasta 2000, el auge de Internet creció a ritmo acelerado.  Las nuevas empresas “puntocom” parecían ser la panacea de los inversionistas, prometiendo rentabilidades elevadas, y cotizando en bolsa a valores sin precedentes. La situación terminó en forma relativamente  abrupta, en 2000, cuando cayeron muchas de estas empresas, sin generar  los millones prometidos, y dejando en bancarrota a la mayoría de los inversionistas.
En junio de 2003, es aprobada la recomendación IEEE 802.11g, como evolución tecnológica  de la serie de recomendaciones 802.11, de redes LAN inalámbricas. El mercado de LAN inalámbrico tiene una marcada tendencia de crecimiento, desde 1997, cuando fue ratificada por la IEEE la  primer recomendación de la serie 802.11. En gran medida, esta tendencia  se ha dado gracias a la “Wi-Fi Alliance”, una organización internacional formada en 1999 para certificar la interoperabilidad de dispositivos de redes  inalámbricas, basadas en las recomendaciones IEEE 802.11. A partir de  marzo de 2000 la Wi-Fi comenzó a extender certificados de interoperabilidad. En 2004, se han certificado más de 1000 productos, de  más de 200 compañías miembros de Wi-Fi.

 

6.2  CONCEPTOS BÁSICOS

Después de un recuento de lo más significativo que sucedió en las ultimas décadas con lo que a comunicaciones se refiere es hora de entrar a profundizar en la investigación, para esto debemos tener claros unos conceptos básicos como lo que significa un transmisor, un receptor, el canal, las señales, y lo más importante y tema central de esta investigación, las modulaciones.

6.2.1     LAS SEÑALES


Cuando se habla de comunicaciones es evidente que se tocan muchos temas en profundidad en especial lo referido a un transmisor, un receptor y un canal por el cual se van a enviar información los dos participantes mencionados anteriormente. Aunque el trabajo está enfocado a demostrar la modulación QAM como la más eficiente de las modulaciones digitales más sobresalientes en las ultimas décadas, es necesario tener claro los conceptos de transmisor, canal, receptor, señal, y demás conceptos que están involucrados en un sistema de comunicación ya sea de microondas, de radiofrecuencia, fibra óptica, entre otros.

6.2.1.1        ¿QUE ES UNA SEÑAL?


Según investigaciones, indagaciones hechas en libros, artículos y demás medios de consulta, una señal puede ser definida como una portadora física de información. Para un ámbito más matemático, las señales se representan por una función de una o más variables.

6.2.1.2        SEÑALES EN TIEMPO DISCRETO


Las señales en tiempo discreto son las cuales tienen un número de muestras finito en un intervalo de tiempo dado. En la Figura1 podemos ver una señal discreta en el tiempo.
                                                Figura1: Señal discreta en el tiempo






6.2.1.3        SEÑALES ANALOGICAS


Son variables eléctricas que evolucionan en el tiempo en forma análoga a alguna variable física. Estas variables pueden presentarse en la forma de una corriente, una tensión o una carga eléctrica. Varían en forma continua entre un límite inferior y un límite superior. Cuando estos límites coinciden con los límites que admite un determinado dispositivo, se dice que la señal está normalizada.  La ventaja de trabajar con señales normalizadas es que se aprovecha mejor la relación señal/ruido del dispositivo.

6.2.1.4        SEÑALES DIGITALES


Son variables eléctricas con dos niveles bien diferenciados que se alternan en el tiempo transmitiendo información según un código previamente acordado. Cada nivel eléctrico representa uno de dos símbolos: 0 ó 1, V o F, etc. Los niveles específicos dependen del tipo de dispositivos utilizado. Por ejemplo si se emplean componentes de la familia lógica TTL, los niveles son 0 V y 5 V, aunque cualquier valor por debajo de 0,8 V es correctamente interpretado como un 0 y cualquier valor por encima de 2 V es interpretado como un 1 (los niveles de salida están por debajo de 0,4 V y por encima de 2,4 V respectivamente). En el caso de la familia CMOS, los valores dependen de la alimentación. Para alimentación de +5 V, los valores ideales son también 0 V y 5 V, pero se reconoce un 0 hasta 2,25 V y un 1 a partir de 2,75 V.
Estos ejemplos muestran uno de los principales atractivos de las señales digitales, su gran inmunidad al ruido.

6.2.2     CANAL DE COMUNICACIÓN


Así como es necesario tener unos conceptos claros acerca de las señales ya que son las que transportan la información, también debemos tener claro el medio por el cual se va a enviar esta información, denominado canal. A grandes rasgos el canal es el medio de transmisión por donde viajan las señales y se transmite la información; el canal puede ser un enlace de radiofrecuencia, un enlace de microondas, un enlace satelital, un tendido de fibra óptica, entre otros, pero miremos a continuación un concepto un poco más robusto de lo que es el canal.
Un canal de comunicación es el medio de transmisión por el que viajan las señales portadoras de la información emisor y receptor, también llamado canal de datos.
En comunicación, cada canal de transmisión es adecuado para algunas señales concretas y no todos sirven para cualquier tipo de señal. Por ejemplo, la señal eléctrica se propaga bien por canales conductores, pero no ocurre lo mismo con las señales luminosas.
Un canal está definido desde el punto de vista telemático por sus propiedades físicas: naturaleza de la señal que es capaz de transmitir, velocidad de transmisión, ancho de banda, nivel de ruido que genera, modo de inserción de emisores y receptores, etc.
El ejemplo más común de canal acústico es la atmósfera. Para señales electromagnéticas se puede utilizar multitud de canales dependiendo de la frecuencia de las señales transmitidas: cables, el vacío (satélites), la propia atmósfera, etc.
Un caso particular de canal electromagnético son las fibras ópticas, especializadas en transmisiones luminosas, extraordinariamente rápidas e insensibles al ruido o las posibles contaminaciones de la señal luminosa.
Los canales son personales o masivos, los primeros son aquellos donde la comunicación es directa, voz a voz. Los segundos pueden ser los escritos, radiales, televisivos e informáticos.
En nuestro trabajo, aplica para muchos canales de transmisión, ya que la modulación QAM se implantó como la técnica de modulación más importante ya que es capaz de comprimir mucha información para enviarla en un canal limitado ancho de banda, este proceso es ideal para lo que hoy conocemos como BANDA ANCHA, pero que es tema central de otro tipo de investigación que no está involucrado en este trabajo pero que si vale la pena mencionar.
También podemos decir que las señales se clasifican en aperiódicas y periódicas, simétricas y asimétricas pero son temas en los cuales no es necesario profundizar ya que se desviaría el enfoque de la investigación.
En esta parte del canal podemos anexar la información referida al transmisor y al receptor en un sistema de comunicaciones, el transmisor se refiere, ya sea al circuito, antena, o demás elemento que radie, envíe información por un canal ya sea alámbrico o inalámbrico, y el receptor hace referencia al elemento ya sea una antena, en la mayoría de  los casos, que recibe esa información y la procesa, y de ser el caso, la retransmite a otro punto de la comunicación.
Teniendo claro los elementos básicos de un sistema de comunicaciones, entramos al proceso de modulación y destacar las distintas clases de modulación digital existentes en el ámbito de las comunicaciones, continuamos con los conceptos básicos para entender este trabajo y entramos al tema de las modulaciones, las técnicas las cuales hoy en día nos permiten hablar de banda ancha y de prestación de servicios integrados de voz y datos por par de cobre y fibra óptica en algunos casos.

6.2.3     LA MODULACION


6.2.3.1        HISTORIA  DE MODULACION


Después de hacer una breve acerca de las comunicaciones a lo largo de la historia; ahora nos centraremos en los tipos de modulación existentes lo cual es el tema principal en mi trabajo. Quiero comenzar emitiendo un breve concepto relacionado con la modulación, posterior a esto realizare un recuento de los distintos tipos de modulaciones existentes y cuál ha sido su evolución a lo largo de la historia, comenzando por las modulaciones más básicas que son la AM y FM, (Amplitud Modulada y Frecuencia Modulada respectivamente). Posterior a esto hare mención a las modulaciones digitales utilizadas en la transmisión de datos como la ASK, FSK, PSK, sus variaciones y la modulación QAM, que es vanguardia en modulación, demodulación  y transmisión de datos, sus siglas traducen Modulación Por Amplitud De Cuadratura. A continuación veremos un poco de historia y en qué consiste cada una de estos tipos de modulaciones.

6.2.3.2        QUE ES LA MODULACION

Cuando una señal no puede ser transmitida en su banda base por la distancia, por las limitaciones de ancho de banda del canal o por la razón que sea, es necesario modularla, lo cual significa usarla como patrón de transformación de otra onda, la cual será realmente transmitida.
¿Porqué una señal no podría ser transmitida en su banda base? Porque alguna de sus características no se adecua al medio. En tal caso, hay que adecuar la señal, y el modo de hacerlo es por medio de la Modulación.
De este modo, podemos definir que la modulación es la acción que ejecuta un modulador al modificar sistemáticamente una onda a la que llamamos portadora, en función de un patrón que llamamos modulante y que es la banda base de la señal que queremos transmitir, para obtener así una nueva onda que llamamos modulada. Si la banda base es digital, en tal caso tenemos modulación digital. En la Figura2 podemos ver el ejemplo claro del proceso de modulación de una señal.

            Figura2: Señal de entrada, y proceso de modulación


El proceso puede ser reversible si se conoce la función con la que ha sido generada la portadora. Las señales senoidales tienen propiedades que le permiten ser portadoras ideales y por tal motivo las portadoras suelen responder a la función y = sen (wt) y ser generadas directamente dentro del modulador.
De este modo, se puede concebir un bloque demodulador que tenga como objetivo recibir de la línea una señal modulada, sustraerle la portadora y entregar la modulante como banda base. Ambas secciones pueden estar construidas en el mismo equipo, junto a la lógica de apoyo para filtrar los ruidos, generar y sustraer las portadoras y comunicarse con el DTE que alimenta/recibe la banda base.



No hay comentarios:

Publicar un comentario