6.
Capítulo I: HISTORIA Y
CONCEPTOS BASICOS DE LOS SISTEMAS DE COMUNICACIONES ACTUALES.
6.1
HISTORIA DE LAS
COMUNICACIONES
En
esta parte de la investigación, comenzamos con una introducción a las
comunicaciones por tal motivo se hace referencia a distintos sucesos ocurridos
en las ultimas décadas que revolucionaron las comunicaciones; tomando hechos
desde que es descubierto los efectos del electromagnetismo hasta la
construcción del primer transistor, el crecimiento de las centrales telefónicas
y el auge de la electrónica y su enfoque a las comunicaciones; entre otros
sucesos que dieron pie a las transmisiones digitales y su paso a las técnicas
de modulación para enviar información.
Christian
Oersted descubre los primeros efectos del electromagnetismo. En un famoso
experimento en la Universidad de Copenhagen, Oersted dispuso una brújula bajo
un conductor eléctrico. Al hacer circular corriente por el conductor, la aguja
de la brújula se mueve, demostrando que las corrientes eléctricas producen
campos magnéticos.
Michael
Faraday descubre la inducción, demostrando que los efectos descubiertos por
Oersted son “reversibles”. Faradaylogra hacer circular corriente por
conductores eléctricos que giran alrededor de un imán permanente. De hecho, se
inventa el primer generador eléctrico, convirtiendo energía mecánica en energía
eléctrica.
El
19 de junio de 1934, mediante una resolución del Congreso de Estados Unidos, es creada la FCC (Federal Communications
Comisión). La FCC sustituyó a la “FRC
(Federal Radio Comisión)”, creada anteriormente
en 1927, con el fin de regular el creciente caos existente en las bandas
de frecuencias, cada vez con más
servicios inalámbricos. La FCC sería la encargada de regular los negocios de
comunicaciones, tanto “alámbricos” como
inalámbricos, incluyendo la regulación y asignación de frecuencias del espectro radioeléctrico.
Alec
Reeves, un brillante ingeniero que trabajaba en Francia para la “International
Western Electric Company”, desarrolla una idea que sería revolucionaria en el futuro de las telecomunicaciones: la
“Modulación por Pulsos Codificados”,
o “PCM (Pulse Code Modulation)”. Desde
el primer teléfono de Bell, la telefonía era completamente analógica. El audio
era transmitido de un punto a otro mediante la variación de una corriente continua. Las señales podían
amplificarse con las válvulas o tubos de
vacío inventados por Fleming y De Forest,
pero el ruido introducido también era amplificado. Por otro lado, las señales telefónicas analógicas
podían ser fácilmente interceptadas y escuchadas. Alec Reeves desarrolló el
primer sistema de audio digital, con fines militares. La segunda
guerra mundial estaba por comenzar, y era necesario disponer de sistemas de
transmisión telefónicas más seguros. Si
bien la idea fue patentada por Reeves, su popularización debió esperar por varias décadas al desarrollo
de nuevas tecnologías, (más específicamente,
a la invención del transistor). La tecnología de PCM se popularizó sobre fines de la década de 1960,
momento para el cual ya no eran reclamables
derechos por la patente. Alec Reeves no sólo es reconocido como el inventor del
PCM, sino también como precursor del
RADAR, brindando invalorables aportes a los Aliados en la Segunda Guerra Mundial. Reeves también
tenía su lado “poco convencional”. Estuvo muy interesado en fenómenos
paranormales, como la telepatía y la comunicación con personas difuntas. Durante
su vida llevó a cabo varios experimentos
en este sentido, e incluso creía que él mismo
estaba siendo guiado por Michael Faraday, quien había muerto en 1867.
Comienza
a funcionar la primera central automática del tipo “Crossbar” en Brooklyn y en
Manhattan. La historia de las centrales
Crossbar se remontan a 1913, cuando J N Reynolds, trabajando para las compañías
Bell, patenta un sistema de conmutación
automática basada en una “matriz”, similar a la utilizada por las centrales
manuales, pero con la posibilidad de
realizar las conexiones en forma
automática. Sin embargo, al momento de la patente, la implementación
práctica de este sistema no es posible.
Unos años más tarde, el ingeniero Gotthilf Ansgarius Betulander, junto
con el ingeniero Palmgren (trabajando para Telverket, en Suecia), realizan un diseño que puede ser
fabricado en serie. La primer central
importante del tipo Crossbar fue instalada en Sundsvall, Suecia, en 1926, dando servicio a 3.500 abonados, y
rápidamente creció en popularidad en Europa. Las compañías Bell, tardaron
algunos años más en implementar la
tecnología Crossbar. En 1938 instalan sus primeras centrales, las “Crossbar
#1”. Por su parte, L M Ericsson comienza
a fabricar centrales Crossbar en 1940.
Las centrales Crossbar utilizaban un sistema de barras horizontales y
verticales, las que mediante pequeños movimientos, pueden hacer contactos entre
sí. Esto forma una especie de “matriz”, donde es posible poner en contacto cualquier fila con
cualquier columna. Si bien parecería que el diseño requiere un crecimiento
proporcional al cuadrado de líneas a conectar, el sistema se puede implementar
en “etapas”, conteniendo cada una de
ellas un número reducido de filas y columnas. Esta implementación m permite el
crecimiento de hasta miles de abonados. El diseño Crossbar (Crossbar #5) sería
uno de los más exitosos en centrales públicas, llegando a tener decenas de
millones de abonados en la década de
1970.
En
una entrevista realizada en 1973 a Arthur C. Keller, quien había trabajado para
la ”Bell Telephone Laboratories”, se hace mención a la visita que realizó la Bell a Suecia en la década de
1930, para ver sus sistemas Crossbar, y se puede apreciar la rivalidad entre
las compañías, existente ya desde esa época.
También
en 1938, la Bell introduce una innovación que perdura hasta en los más modernos teléfonos: El “cable de rulo”
para el microteléfono. El nuevo tipo de
cable es inmediatamente aceptado y popularizado.
Con
el comienzo de la Segunda Guerra Mundial, los ejércitos Británicos y
Estadounidenses dieron un empuje considerable al desarrollo de las primeras
computadoras. En 1939 el gobierno
británico reclutó en Bletchley Park (cerca de
Londres) a varios científicos, con el fin de descifrar los mensajes encriptados alemanes. Entre ellos
estaba Alan Turing, quien, además de realizar importantes aportes teóricos,
trabajó en el diseño de la máquina
“Colossus”, considerada actualmente como una de las primeras computadoras electrónicas. Sin
embargo, Colossus distaba de ser una computadora tal como las conocemos
actualmente. En primer lugar, no disponía de almacenamiento interno de programas. Para “programarla”, era necesario
cambiar físicamente conectores y cableado. En segundo lugar, no era una máquina
de propósitos generales, sino que estaba diseñada específicamente para
funciones criptográficas, implementadas
con contadores y operaciones booleanas.
La
primera Colossus se puso en funcionamiento en 1943. Se basaba en la idea de universalidad de la
máquina de Turing, estaba compuesta por más de 1.500 válvulas o tubos de vacío,
la entrada de datos era por medio de
tarjetas perforadas y los resultados se almacenaban en relés temporalmente hasta que se les daba
salida a través de una máquina de
escribir. Era totalmente automática, medía 2.25 metros de alto, 3 metros de largo y 1.20 metros de ancho. 1946 Por su
parte, en Estados Unidos, John P. Eckert y John W. Mauchly construyeron durante
los años 1943 a 1946, en la Universidad de Pennsylvania, uno de los primer
computadores electrónicos, al que llamaron ENIAC (Electronic Numerical
Integrator and Computer). ENIAC estaba
compuesto de 17.468 válvulas o tubos de vidrio al vacío (más resistencias,
condensadores, etc.), con 32 toneladas de peso, y ocupaba un espacio de 2,40
metros de ancho por 30 metros de largo.
El calor de las válvulas elevaba la temperatura del local hasta los 50
ºC. Para efectuar diferentes operaciones
(“programaciones”), debían cambiarse las conexiones (cables) como en las viejas
centrales telefónicas, lo cual era un trabajo
que podía tomar varios días.
El
proyecto había sido patrocinado por el Ejército de los Estados Unidos, durante
la Segunda Guerra Mundial, con el objeto
de calcular con gran velocidad la
trayectorias de proyectiles. El proyecto culminó luego del fin de la Segunda
Guerra. ENIAC podía calcular la potencia 5000 de un número de 5 cifras en 1,5
segundos. Podía resolver 5,000 sumas y 360 multiplicaciones por segundo, pero su programación era terriblemente
tediosa y debían cambiarse las válvulas continuamente. En las últimas fases de
su diseño y construcción actuó como
consultor John Von Neumann. Las ideas utilizadas en la construcción de ENIAC no
fueron del todo originales. En 1937, John Vincent Atanasoff, físico teórico de
la Universidad de Iowa, pasaba varias
horas de su día aplicando manualmente métodos
numéricos para resolver la ecuación de Shrödinger, que derivaba en
sistemas de ecuaciones lineales. Durante mucho tiempo Atanasoff había meditado
acerca de métodos automáticos para la resolución de éste tipo de problemas. Finalmente, en una fría
noche del invierno de 1937, Atanasoff inventa los fundamentos básicos de los
futuros computadores: utilizar el sistema binario para representar números,
utilizar los dispositivos electrónicos
conocidos en ese momento (válvulas) para implementar las operaciones lógicas y
utilizar “memorias binaras regenerativas”. Con estas ideas en mente, y junto
con su asistente Clifford E. Berry,
Atanasoff diseña su “Atanasoff– Berry
Computer”, conocida como “ABC”. Para 1942, la ABC se encontraba en funcionamiento, y
podía resolver sistemas de hasta 30 ecuaciones lineales con sus 30 incógnitas.
A fines de 1940, John Mauchly (el futuro
diseñador de ENIAC) conoció a Atanasoff.
Su interés común en computadores, llevaron a que Mauchly y Atanasoff
mantuvieran fluida correspondencia, e incluso Mauchly fue invitado a pasar unos
días en la propia casa de Atanasoff, en
junio de 1941. Durante su visita, Atanasoff mostró a Mauchly su computadora
ABC, y le transmitió sus principios
básicos de funcionamiento, así como las ideas claves.
En
1942, las “prioridades” de la Segunda Guerra Mundial, llevaron a que Atansoff y Berry abandonaran el proyecto ABC.
Lamentablemente, no llegaron a patentar sus ideas. Cuando Mauchly comenzó el
proyecto ENIAC en 1943, tenía muy presente
el trabajo de Atanasoff, y sus ideas claves, las que fueron tomadas
como base para su propio proyecto.
Mauchly y Eckert presentaron una
solicitud de patente, basados en su
proyecto ENIAC, en 1947. La solicitud contenía
varios aspectos de las ideas relevantes en computadores electrónicos.
La patente les fue otorgada en 1964, y
fue vendida a Sperry Rand. Cuando
Honeywell Inc. comienza a utilizar tecnología similar y decide no pagar
por los derechos a Sperry Rand, este
último comienza un litigio. Los abogados
de Honeywell estudian el tema, y descubren los trabajos de Atanasoff,
a quien consultan en 1967. Atanasoff
estudia la patente, y descubre que en
realidad está basada sobre sus propias ideas, transmitidas a Mauchly
durante la visita a su casa en 1941. Esto da pie a que los abogados de Honywell Inc argumenten que la patente
entregada originalmente a Mauchly y
Eckert y luego vendida a Sperry Rand, es inválida, ya que las ideas originales
eran de Atanasoff. Finalmente, en
1973 el Juez Larson, de Minnesota,
declara inválida la patente
entregada a Mauchly y Eckert, y atribuye
las ideas a Atanasoff: “...Eckert and Mauchly did not
themselves first invent the automatic
electronic digital computer, but instead derived that subject matter from one
Dr. John Vincent Atanasoff…”
El
17 de junio de 1946, en St. Louis, Missouri, AT&T presenta al mercado
el primer sistema comercial de telefonía
móvil vehicular para el público. El sistema funcionaba en la frecuencia de 150
MHz, utilizando 6 canales espaciados 60 kHz.
Los
científicos William Shockley, John Bardeen, y Walter Brattain, trabajando para los laboratorios
Bell, buscaban un reemplazo para las
válvulas de vacío. El primero de julio
de 1948 el primer transistor en la historia de la Humanidad es dado a conocer. El nombre “transistor” fue
dado por sus inventores, como abreviación de “transit resistor”.
Muchos califican a ésta como la
invención más importante del siglo XX.
Basta dar una mirada a lo que tenemos alrededor, para darnos cuenta lo acertado
de ésta afirmación. El primer transistor utilizaba la tecnología conocida como
“punto de contacto”, y se basaba en las propiedades semiconductoras del
germanio. Poco más tarde, Shockley creó
el “transistor de unión”. En setiembre de 1951 los laboratorios Bell patentaron
la tecnología de fabricación de ambos
tipos de transistores, y la vendieron. La tecnología fue comprada por RCA,
Raytheon, General Electric, Texas Instruments y Transitron. Los primeros
transistores fabricados en serie fueron de germanio, usando la tecnología de
“punta de contacto”. En 1955 se
fabricaron los primeros transistores de silicio.
En
1956 Shockley, Bardeen, y Brattain obtuvieron el Premio Nobel de Física “por
sus investigaciones en semiconductores y
su descubrimiento del efecto del
transistor”. En 1972 John Bardeen recibió otro Premio Nobel de Física “por su desarrollo conjunto
de la teoría de la superconductividad, usualmente llamada Teoría BCS”. El
primer transistor fabricado en gran escala fue el CK722, de Raytheon, en 1953.
Claude
E. Shannon pasó quince años de su vida en los laboratorios Bell, en una
asociación muy fructífera con muchos
matemáticos y científicos de primera línea como Harry Nyquist, Brattain,
Bardeen y Shockley, entre otros. Durante este período Shannon trabajó en muchas áreas, siendo lo mas notable lo
referente a la teoría de información. En
Julio de 1948, un desarrollo publicado
bajo el nombre de "Una Teoría Matemática
de la Comunicación", sentaría las bases teóricas que permiten
calcular la capacidad de información que
se puede transmitir por un canal. El contenido de su artículo es conocido habitualmente como
“Teorema de Shannon” o “Teorema de la información”.
El
transistor acababa de ser inventado, pero aún no era producido en serie, por lo que Eckert y Mauchly continuaron el
desarrollo de sus computadores con tecnología de válvulas. En marzo de 1951, 5
años luego del proyecto ENIAC, se
realizan las pruebas formales de aceptación de un nuevo computador, al que
llamaron UNIVAC (“Universal Automatic Computer”). UNIVAC fue la primer
computadora fabricada y vendida “en serie”. En total, se fabricaron 46 UNIVAC I, entre 1951 y 1957.
Las primeras fueron compradas por agencias del Gobierno y el Ejército de
Estados Unidos, pero varias fueron
instaladas en empresas privadas (General Electric, compañías de seguros, etc.)
y Universidades. El primer éxito público de
UNIVAC se dio durante las elecciones presidenciales estadounidenses de
1952.
La cadena radial y televisiva CBS utilizó a
UNIVAC (el número de serie 5)) para predecir el resultado de las elecciones.
Los reporteros de la CBS recolectaban datos en diferentes puntos
de votación, y los transmitían
telefónicamente a Filadelfia, dónde se encontraba UNIVAC. Tres operarios
ingresaban los datos mediante los “UNITYPER” que disponía UNIVAC.
Eran
ingresados por triplicado, y UNIVAC corregía los posibles errores de typeo. El programa de UNIVAC predijo
correctamente la victoria de Eisenhower, el que fue dado a conocer por la CBS.
Tres años después, Isaac Asimov publica
el cuento “Sufragio Universal” (“Franchise”), en la que aparece por primera vez “MULTIVAC” (clara
referencia a UNIVAC). En el cuento de
Asimov, MULTIVAC decide quien será el próximo presidente de los Estados Unidos ¡tomando en cuenta
únicamente un voto! En este cuento, MULTIVAC elige muy meticulosamente al
votante “promedio”. Según Asimov, MULTIVAC “....tenía más de un kilómetro de
longitud y tres pisos de altura, y
cincuenta técnicos recorrían continuamente los pasillos de la estructura. Era una de las maravillas del
mundo”. UNIVAC medía 4,2 metros de
largo, 2,4 metros de ancho y 2,5 metros de altura. Utilizaba 5.200 válvulas o tubos de vacío y consumía 125
kilowatt de potencia. 1956 El 26 de setiembre de 1956 fue oficialmente
inaugurado el primer cable trasatlántico para el transporte de conversaciones
telefónicas. Desde 1927, existía un
servicio radio telefónico entre Estados Unidos y Gran Bretaña. Sin embargo,
este servicio era de mala calidad, dependía de
factores atmosféricos y era de baja capacidad. El primer cable telefónico trasatlántico, TAT–1,
consistía en dos cables coaxiales con aislamiento de polietileno, separados aproximadamente 30
kilómetros. Cada uno de ellos podía transportar hasta 36 conversaciones en una
dirección, lo que permitía 36
conversaciones bidireccionales simultáneas, de las cuales 30 prestaban servicio
entre Gran Bretaña y Estados Unidos y 6 entre Gran Bretaña y Canadá. Fue
necesario utilizar 51 estaciones
repetidores sumergidas en el fondo del océano, con tecnología de válvulas o
tubos de vacío. El primer día en servicio, el nuevo cable comunicó a 588 llamadas entre Londres y EEUU
y 119 entre Londres y Canadá, un 85% más que el promedio diario de los
servicios radiotelefónicos existentes.
Las
necesidades de telecomunicaciones de las empresas crecían junto con el desarrollo de las telecomunicaciones
públicas. Los sistemas del tipo “key
system” eran ya populares. Estos sistemas electromecánicos, que
comenzaron a difundirse en la década de 1920, consistían en conectar varias
líneas urbanas a distintos botones o teclas de un mismo teléfono. Cada teléfono
era conectado con varios cables (por lo
menos un por cada línea telefónica, pero
se requerían otros varios para controles, encendido de luces, etc.) hasta una
caja central, dónde se realizaban todas las conexiones y empalmes necesarios. En 1958, las Compañías Bell
lanzaron al mercado el “Call Director”, un sistema “key system” ¡que requería
150 pares para sus consolas!
Mientras
la mayor parte de las aplicaciones continuaban utilizando tecnologías de
válvulas o tubos de vacío, la electrónica de semiconductores continuaba su
desarrollo. En 1959, dos ingenieros independientes y trabajando para empresas diferentes, desarrollaron los
primeros circuitos integrados de la historia. Jack St. Clair Kilby , trabajando para Texas Instruments, desarrolló
el primer circuito integrado de germanio. Por su parte, Robert N. Noyce,
trabajando para Fairchild Semiconductor, desarrolló el primer circuito
integrado de silicio. Kilby continuó trabajando para Texas Instruments, logrando
varias patentes (además de las correspondientes
a los circuitos integrados). Entre
sus invenciones se destaca el desarrollo de la primer calculadora de bolsillo. Kilby recibió el
Premio Nobel de Física en 2000, “por
trabajos básicos en tecnologías de la
información y la comunicación”, y “por su parte en la invención del
circuito integrado”. En 1959 Noyce fue Gerente General de Fairchild
Semiconductor. En 1968 decidió crear su
propia compañía, y con algunos colegas fundó INTEL. Recibió la Medalla de Honor
de IEEE en 1978, “por sus contribuciones a los
circuitos integrados de silicio”.
Mientras
las posibilidades de comunicación a través del atlántico se ampliaban con el
tendido de cables sobre el lecho del océano, también lo estaban haciendo a través del espacio. En
1958, Rusia logró poner en órbita el primer satélite artificial en la historia
de la humanidad, el Sputnik 1. El Sputnik llevaba a bordo un radiofaro el cual
emitía una señal en las frecuencias de 20 y 40 MHz, la que podía ser recibida
por simples receptores en tierra. Estados Unidos no se quedaría atrás. La
primera voz humana retransmitida desde
el espacio fue la del presidente norteamericano Dwight D. Eisenhower, cuando en
1958 en el contexto del proyecto SCORE se puso
en órbita un misil ICBM Atlas liberado de su cohete acelerador con
un mensaje de Navidad grabado por el
dirigente. La grabadora podía también almacenar
mensajes para retransmitirlos más tarde,
lo que dio origen a los llamados satélites de retransmisión diferida. Un
Satélite posterior de este tipo fue el Courier 1B, lanzado el 4 de Octubre de
1960. Este satélite militar podía almacenar y retransmitir hasta 68.000 palabras por minuto, y empleaba células
solares en lugar de los acumuladores
limitados del SCORE.
Poco
tiempo después, Estados Unidos puso en órbita sistemas pasivos. Los Echo 1 y 2
eran grandes globos reflectores. Los ingenieros concluyeron que era necesario
un sistema de transmisión activo. El
primer satélite de comunicaciones verdadero, el Telstar 1, fue lanzado a una órbita
terrestre baja, de 952 x 5632 km. Era también
el primer satélite de
financiación comercial, a cargo de AT&T. Telstar fue desarrollado en
los laboratorios Bell, a cargo de John
R. Pierce. El Telstar 1 se lanzó el 10 de julio de 1962. Las estaciones terrestres estaban situadas en
Andover, Maine (Estados Unidos), Goonhilly Downs (Reino Unido) y Pleumeur-Bodou
(Francia). Salvo por dos incidentes, todo
funcionó perfectamente. El primer incidente consistió en pequeños
problemas en la estación terrestre, que fueron rápidamente solucionados.
El segundo incidente, se debió a no
haber previsto que al estándar de polarización utilizado en Gran Bretaña era
diferente al utilizado en Estados
Unidos. La transmisión entre Estados Unidos y Francia fue excelente
desde el comienzo. El problema de polarización
fue resuelto, y el 23 de julio de 1962
se emitió la primer transmisión televisiva internacional.
Hasta
el momento, salvo en alguna aplicación militar o de laboratorio, todas las
comunicaciones existentes eran analógicas. Las técnicas de digitalización de la
voz (PCM) desarrolladas por Alec Reeves en 1937 no habían encontrado aplicación práctica, hasta
1962, año en el que es instalado el primer sistema de transmisión digital, al
que llamaron “T1”. Dado que en el mismo año se había puesto en órbita el
Telstar 1, la “T” indicaba “Terrestre”
(aunque en varios artículos se menciona que la “T” indica “Transmisión”). El
sistema, vigente y de gran difusión actual, consiste en digitalizar y multiplexar 24
conversaciones telefónicas en un flujo digital
de 1.544 Mb/s. La primer instalación se realizó en Chicago. 1963 La
“Western Electric” lanza al mercado el primer teléfono de tonos, el modelo
1500. Este teléfono tenía 10 botones (0 al 9). El * (asterisco) y
el # (numeral) fueron introducidos en
1967, en el modelo 2500. Los teléfonos
de tonos utilizan una matriz de 4 filas
por 4 columnas. Cada fila y cada columna
corresponden a una frecuencia
determinada. Al pulsar un dígito, el teléfono genera una señal compuesta por la
suma de dos frecuencias, que pueden ser
luego fácilmente detectadas en la central
pública, por medio de filtros adecuados. La elección de este sistema
de señalización se basa en el trabajo
de L. Schenker, de 1960, en el que
se estudian varias posibles sistemas de
señalización y se concluye que el de
tonos multifrecuentes es el mejor.
Un
comité formado por representantes del gobierno y la industria desarrolla el
código ASCII (American Standard Code for
Information Interchange), para permitir
el intercambio de información
entre computadores desarrollados por diferentes empresas. El código incluía la identificación de las
letras del alfabeto inglés (A a Z, pero
sin tildes, ñ, etc.), los números (0 al 9), caracteres de puntuación y algunos
caracteres especiales (como “retorno de
carro”, “salto de línea”, etc.). Cada carácter se representa mediante un
conjunto de 7 bits, permitiendo por lo tanto un total de 128 caracteres. La estandarización de
palabras de 8 bits (“bytes”) fue
establecida posteriormente, en 1964, con el lanzamiento del modelo 360
de IBM
En
1964, Paul Baran hace pública una serie de trabajos “sobre comunicaciones
distribuidas” realizados en la RAND
(organización sin fines de lucro
orientada a la investigación y el desarrollo, patrocinada originalmente por el Ejército de los Estados
Unidos). Paul Baran, un Ingeniero nacido en Polonia, sentó las bases teóricas
de las redes de paquetes, que
actualmente utilizan las redes LAN, WAN e Internet. Baran trabajó inicialmente en la Eckert Mauchy
Computer Company, en la época del diseño
de ENIAC y UNIVAC. Sin embargo, su trabajo en este período consistió en el estudio de los tiempos medios
entre fallas de cada uno de los
componentes, y en base a ellos en la predicción del tiempo medio entre fallas
de estos computadores. Luego de su estudio llegó a la conclusión de que era prácticamente imposible que estos
equipos funcionaran, por lo menos de manera suficientemente confiable, por lo
que decidió cambiar de trabajo.
Trabajó
en radio telemetría para el ejército, y en procesamiento de datos de radares, y
durante las noches, asistió a clases complementarias en la UCLA. Sobre fines de
la década de 1950 comenzó a trabajar en
la RAND. En plena “Guerra Fría”, uno de
los problemas que preocupaban al
Ejército Norteamericano era la
vulnerabilidad de sus comunicaciones. Baran realizó un estudio de la red telefónica instalada (esencialmente la red de
larga distancia, de AT&T), llegando a la conclusión que la misma era sumamente vulnerable a ataques, ya
que si dejaban de funcionar algunas pocas centrales claves, podían quedar
incomunicados un gran número de puntos estratégicos. Pensando en el diseño de una
red mucho más confiable, Baran llegó a la conclusión que dicha red debía ser digital, en forma de
malla, y debían utilizarse pequeños
“bloques de mensajes” que debían ser transmitidos desde el origen hasta
el destino, pasando por los nodos
intermedios, en dónde se regeneraría la señal y se decidiría el mejor
enrutamiento para cada “bloque de mensaje”.
Según
sus cálculos, esta red era perfectamente realizable, económicamente viable y
sumamente robusta, ya que ninguna falla puntual
podía dejar incomunicada a gran parte de la red. Los conceptos
básicos fueron descritos en 12
publicaciones internas de la RAND y luego
compilados y publicados en “On Distributed Communications”. Baran
presentó sus trabajos a los altos jerarcas de AT&T, ya que parecía la empresa ideal para realizar los desarrollos
prácticos y la implantación de este tipo
de red. Sin embargo, la mayoría de estos jerarcas no entendieron los nuevos
conceptos (la telefonía en la década de 1960 era analógica, y los conceptos de conmutación digital eran
inexistentes hasta el trabajo de
Barban), y sus trabajos no tuvieron receptividad en esta compañía.
Luego
de 10 años de desarrollo, y a 17 años del invento del transistor, es instalada la primera central telefónica
pública electrónica, en Succasunna, Nueva Jersey. El modelo 1 ESS, desarrollado
en los laboratorios Bell, utilizaba 55.000 transistores y 160.000 diodos, además de los
correspondientes componentes pasivos. Estos componentes estaba dispuestos en
cientos de placas. La conmutación de esta central telefónica era realizada con relés, que memorizaban su
último estado, por lo que únicamente requerían corriente para cambiarlos de
estado (es decir, en el establecimiento
y corte de las comunicaciones). El procesamiento era realizado por una CPU
duplicada, en la que se comparaba paso a paso el resultado de cada operación. El programa era
almacenado en memoria, introduciendo por
primera vez el concepto de “Control por Programa Almacenado” (Stored Program
Control), un nombre de marketing para indicar que la central telefónica
disponía de memorias electrónicas. La
nueva CPU electrónica permitió incorporar algunas nuevas funciones, como ser
“desvíos de llamadas” y “discado abreviado”. Desde el punto de vista de la conmutación, la 1 ESS seguía
siendo una central analógica, ya que el
audio no era digitalizado. 1966 A comienzos de la década de 1960, AT&T
diseñó el primer MODEM, al que llamó
“Dataphone”. Este dispositivo convertía datos en señales acústicas que podían
ser transportadas por la red telefónica. El Dataphone estaba basado en los trabajos de A.W. Morten y H.E.
Vaughan de 1955. Sin embargo, no fue
hasta 1966 que tuvo aplicación práctica, gracias a los trabajos de John Van Geen, del Stanford Research
Institute, que permitieron detectar correctamente la información, aun en líneas
con ruidos.
Van
Geen necesitaba conectarse a un computador central, mediante líneas telefónicas
de larga distancia. Los módems existentes en aquella época (instalados por las
compañías Bell), tenían malos resultados,
debido a los ruidos existentes en las comunicaciones de larga distancia.
Van Geen trabajó en el diseño de un MODEM con acoplamiento acústico que sea
inmune a los ruidos de la línea telefónica. En aquella época, estaba prohibido
conectar a la línea cualquier dispositivo que no fuera diseñada y vendida por
la propia compañía telefónica. Los módems de acoplamiento acústico se acoplaban a los tubos o micro
teléfonos del aparato que instalaba la propia compañía telefónica, por lo que
de esta manera no se violaba la
legislación existente.
Este
tipo de módems, con acoplamiento acústico, fue usado hasta la década de 1980.
Los primeros módems trabajaban a 300 y 1200 bps, con modulación FSK. Sobre
fines de la década de 1960, aparecieron módems de 4800 bps, utilizando
modulación PSK, y de 9600 bps usando QAM con constelaciones de 16 puntos 1969 En julio de 1969, luego de
casi 10 años de carrera espacial, el Apolo 11
desciende sobre la Luna. Neil Armstrong realiza la primer transmisión
televisiva desde otro mundo, con su famosa frase “...es un pequeño paso para un hombre, pero un gran salto para la
humanidad...”
En
1969, mientras Armstrong caminaba sobre la Luna, entraba en funcionamiento la primera
red de computadoras, la ARPANET, consistente
en 4 nodos, ubicados en UCLA, el Stanford Research Institute (SRI),
la Universidad de Utah, y la UC Santa
Barbara. El proyecto había comenzado en 1962, en la ARPA (“Advanced Research Projects Agency”), una de
las agencias de investigación del
Departamento de Defensa Norteamericano. En este año, el Dr. J.C.R. Licklider
fue nombrado Director de ARPA –
IPTO (Information Processing
Techniques), con el fin de estudiar cómo debía ser la red de
comunicaciones del ejército. Licklieder
había publicado anteriormente un trabajo acerca de la interacción cooperativa
entre hombres y computadoras. En este
trabajo, Licklieder presenta un futuro en el que los hombres y las computadoras vivirán
en “simbiosis”, dependientes uno del otro: “... parece razonable prever, para dentro de 10 a 15
años, un ‘centro pensante’, que
incorporará las funciones actuales de las bibliotecas, con varias mejoras en
el almacenamiento y búsqueda... La
imagen es la de una red de estos
centros, conectados entre si con líneas de
comunicaciones de gran ancho de banda y a usuarios individuales por medio de servicios cableados
contratados. En este sistema, la velocidad de las computadoras será balanceada,
y el costo de las gigantescas memorias y los sofisticados programas necesarios
serán divididos entre el número de usuarios...”. Si bien el artículo pudo haber
subestimado los plazos y en algunos
aspectos las dificultades de la
inteligencia artificial (mencionada en
el artículo), es sin duda, una acertada predicción aventurada para la
época en que fue publicada (1960).
Licklieder entendió que las futuras redes debían ser digitales, con conmutación
de paquetes (tal como lo estaba proponiendo Baran desde la RAND) y debían
conectar a todas las computadoras existentes. Lick (como era conocido en la ARPA), llamó a ésta la “Red Intergaláctica” (“Inter-Galactic
Network”). Licklieder sentó las bases del trabajo que daría lugar a ARPANET. En
1966 Robert Taylor tomó el lugar de Licklieder, y contrató al Dr. Lawrence
(Larry) G. Roberts como responsable del proyecto ARPANET, que llegó a sus
primeros logros en 1969. En un resumen de sus trabajos, publicado en 1971,
Larry Roberts indica “... lo que se
necesitaba era un servicio de mensajes en el cual cualquier computadora pueda transmitir un
mensaje destinado a cualquier otra computadora y estar segura que será
entregado correcta y rápidamente....”. Fue el nacimiento de Internet.
Hasta
comienzos de la década de 1970, los medios de transmisión utilizados en
telecomunicaciones consistían en cables de cobre (pares trenzados o más
recientemente cables coaxiales) y el “vacío”, utilizado en las comunicaciones inalámbricas. La teoría de utilizar la luz como medio de transmisión de información era muy antigua,
pero técnicamente impracticable. En 1880, Alexander Graham Bell demostró que la
luz podía transportar señales de voz por
el aire, sin necesidad de utilizar cables. El
“Fotofono” de Bell reproducía voces detectando las variaciones de luz
solar que llegaban a un receptor. Su
teoría era perfectamente correcta, pero no
era práctica en su época.
El
interés en las tecnologías de fibras ópticas comenzó a crecer
significativamente por 1950, cuando se patentó un método que utilizaba un vidrio en forma cilíndrica, de dos capas como
guía de onda para la luz. En los comienzos de 1960, se utilizó por primera vez
un “Láser” como fuente de luz para las primeras fibras ópticas, con resultados
asombrosos. Sin embargo, el alto costo del láser óptico de aquella época
impedían el uso comercial de ésta
tecnología. A finales de la década de
1960 se descubrió que las altas pérdidas de luz en las fibras ópticas eran debidas mayoritariamente a las impurezas
del vidrio, y no a sus propiedades intrínsecas.
A
principios de 1970, los ingenieros Robert
Maurer, Peter Schultz y Donald Keck
de la Corning Glass Works
refinaron el proceso de construcción de
las fibras ópticas, consiguiendo pérdidas de luz muchos menores, y permitiendo el uso de fuentes de luz de
menor costo, como los LEDs. En 1970 consiguieron un pérdida menor al 1% en un
kilómetro de Fibra.
A
fines de 1972, Northern Telecom. (Actualmente Nortel Networks) diseña la primer
PBX digital. En menos de 3 años, esta PBX (conocida como SG-1 o PULSE) fue
instalada en más de 6.000 empresas. La PULSE fue rediseñada, convirtiéndose en
una central privada totalmente digital, implementando conmutación digital por
división de tiempo (TDM). Estenuevo modelo, fue conocido como SL-1.
En
1972, Robert (Bob) Metcalfe comenzó a trabajar para Xerox, en Palo Alto
Research Center (PARC). Anteriormente, Metcalfe había trabajado en el proyecto
ARPANET. Para una confernencia donde se haría unapresentación de ARPANET,
Metcalfe escribió el artículo “Scenarios for the Arpanet”, y quedó a cargo de
una demostración pública del sistema. Durante esta demostración, Metcalfe
recuerda la siguiente anécdota: “Yo
estaba sentado frente al terminal, un estudiante graduado con una gran y
tupida barba roja, dando un paseo por esa red a diez ejecutivos de
AT&T, todos ellos vistiendo
elegantes trajes a rayas..., y en el medio de la demostración – por primera vez
en tres días – el sistema dejó de funcionar.
Miré hacia arriba, y ellos... estaban felices de que no hubiera
funcionado. Estaban sonriendo” En Xerox
le fue asignada la tarea de desarrollar un mecanismo para interconectar los
computadores que en ese momento se estaban desarrollando en la Compañía.
Inspirado en los trabajos publicados por la Universidad de Hawaii, respecto a
la red “Alohanet”, en 1973 Bob Metcalfe
desarrolló una nueva tecnología de comunicación entre computadores, a la que
llamó “Ethernet”. Ethernet fue tan exitosa, que en 1980 varias compañías
la adoptaron. Digital, Intel y Xerox
comenzaron a usarla, a velocidades de 10
Mb/s, convirtiéndola en un “estándar de
hecho”. En febrero de 1980 la
Sociedad de Computación del IEEE realizó
la primer reunión del “comité de estandarización de redes de área local” (“Local Network Standards Committee”), al que fue
asignado el número 802 (simplemente el siguiente número secuencial de los
proyectos que estaban en curso en la IEEE). En 1983
Ethernet
es estandarizada como IEEE 802.3 (10 Base 5). Metcalfe fundó en 1979 la
compañía 3Com (las tres “Com” provienen de
Computers, Communication, Compatibility).
El
Dr. Martín Cooper, en esos momentos Gerente
General de la división de Sistemas de Comunicación en Motorola, realiza
la primer llamada desde un teléfono celular. El 3 de abril de
1973. Cooper, caminando por las calles de Nueva York, realizó la llamada inaugural desde su
flamante teléfono celular, discando el número de su colega y rival Joel Engel, quien
trabajaba para los laboratorios Bell.
Los laboratorios Bell habían introducido los conceptos de la tecnología celular
en 1947, pero Motorola fue la primer compañía en diseñar y fabricar un teléfono
móvil celular. El invento había sido largamente esperado, y varias veces
utilizado por Holywood en sus películas “futuristas”, entre las que vale la pena recordar a la
serie “Get Smart” o “El agente F86”, de
1965, con su famoso “Zapatófono”, y al
“Batifono”, de 1966, utilizado por Batman y Robin (aunque éste último no era un
teléfono celular independiente, sino que estaba ligado al Batimóvil).
En
1976 es inaugurada en Chicago la primer central pública con conmutación digital
por división de tiempo (TDM), la No 4 ESS. El proyecto, de los laboratorios Bell, fue llevado a cabo
por el Ingeniero H. Earle Vaughan. La 4
ESS podía conectar 550.000 llamadas por hora. El trabajo había comenzada en 1955, con el proyecto ESSEX
(“Expermimental Solid State Exchange),
del cual Vaughan era el principal responsable. Durante el proyecto ESSEX,
Vaughan sentó las bases para la conmutación digital, basándose en la técnica PCM y en la multiplexación por
división de tiempo TDM. Entre 1962 y
1965, Vaughan estuvo a cargo del sistema 1 ESS. En 1968 comienza el
proyecto 4 ESS, culminando en 1976 con
la instalación de la primera central pública con conmutación digital. Vaughan se retiró luego de finalizado este proyecto.
Vaughan recibió la Medalla de Honor de
la IEEE en 1977, “por su visión,
contribución técnica y liderzazo en el desarrollo del primer conmutador
telefónico de alta capacidad con tecnología de modulación por impulsos codificados (PCM) y división temporal (TDM)”.
El
primer prototipo de sistema celular comercial es instalado en Chicago, por AT&T, en 1977. En 1978, más de 2000
celulares son probados por el público.
En 1979 el primer sistema celular comercial comenzó a funcionar en Tokio.
Finalmente,
en 1982, la FCC autoriza el servicio comercial de telefonía celular en Estados
Unidos. Un año después, en 1983, el primer sistema comercial con tecnología AMPS (Advanced
Mobile Phone Service) comienza a
funcionar en Chicago, luego de 35 años de introducidos los primeros conceptos
de telefónica celular, y a 10 años de la fabricación del primer teléfono celular. Por su lado, la
introducción de la telefonía celular en Europa comenzó en 1981,
con el sistema NMT450 (Nordic Mobile Telephone) en Suecia, Finlandia y Dinamarca.
Fue el primer sistema celular con cobertura multinacional. En 1985 Gran Bretaña
comienza a utilizar el sistema TACS
(Total Access Communications System). Luego, Alemania introduce el
sistema C-Netz, Francia el Radiocom2000 e Italia el RTMI/RTMS. Pasados los mediados de la década de 1980, Europa
tenía 9 sistemas celulares analógicos, incompatibles entre sí. A esa altura,
las compañías y estados europeos, deciden comenzar a trabajar en conjunto en un
nuevo estándar, común para todos los
países, y con tecnología digital. Este nuevo estándar sería el GSM. Por su lado, Estados Unidos no
sufre de problemas de incompatibilidad, ya que su sistema analógico AMPS se
populariza cada vez, y no ve como
necesidad inmediata la digitalización del sistema. 1983 En Francia, en 1983, es
lanzado oficialmente “Minitel”, un sistema de directorio electrónico. El
sistema consiste un una red de datos a nivel nacional, dónde en cada hogar se
instala un terminal con acceso a una base de datos centralizada de directorios y
servicios. El terminal consiste en una pantalla de texto y un teclado,
generalmente integrados en un mismo equipo físico. Años antes de la popularización de Internet,
Francia contaba con una red de datos, que llegaba prácticamente a todos
los hogares, y sin fallas durante 20 años.
A
comienzos de la década de 1980 se comenzó a sentar las bases conceptuales para
una nueva red telefónica, con tecnología digital hasta los terminales de abonado. Esto dio origen a la
primera versión de la recomendación I.120 de la CCITT (actualmente ITU-T), que
describe lineamentos generales para implementar un nuevo concepto en telefonía:
ISDN (“Integrated Services Digital Networks”) o RDSI (“Red Digital de Servicios
Integrados”). Con ISDN se proponía llegar digitalmente hasta los abonados, y brindar servicios de valor
agregado de telefonía y datos. Sin
embargo, ISDN no tuvo el éxito que se esperaba a sus comienzos. Varios problemas de incompatibilidades entre diversos fabricantes retrasaron la
masificación de este servicio. Para cuando el servicio podría haber
crecido, nuevas tecnologías (como xDSL o
cablemodem) ya estaban ingresando en el
mercado, con mejores servicios y a precios más competitivos. Sin embargo, ISDN
tiene aún mucha importancia, además de haber sido el primer sistema
estandarizado de telefonía digital hasta los abonados.
En
1985, la CCIA (Computer Communications Industry Association) solicitó a la EIA (Electronic Industries Alliance)
realizar un estándar referente a los
sistemas de cableado. En esa fecha se entendió que era necesario
realizar un estándar que contemplara
todos los requerimientos de cableado de los
sistemas de comunicaciones, incluyendo voz y datos, para el área
corporativa (empresarial) y residencial. La EIA asignó la tarea de desarrollar estándares de cableado al comité “TR-41”. El
resultado de este esfuerzo, llevado a
cabo desde 1985 hasta el día de hoy, ha sido la realización y aceptación de un
conjunto de recomendaciones (llamadas “estándares”) acerca de las
infraestructuras de cableado para los edificios comerciales y residenciales.
Entre estos estándares se encuentran el ANSI/TIA/EIA 568, referente a los
cables y sus categorías (Categoría 3, 4, 5, 5e, 6...) , el ANSI/TIA/EIA 569, referente a los espacios y
canalizaciones para telecomunicaciones, y el ANSI/TIA/EIA 607, referente a los
aterramientos para telecomunicaciones, entre otros 1988 Comienza a funcionar en
1988 el primer cable trasatlántico de fibra óptica, el TAT-8, con 6.600 km de longitud, uniendo
Estados Unidos y Francia. Tenía una capacidad de 40.000 conversaciones
telefónicas simultáneas (10 veces más que el TAT-7 existente en la época, y 1.000 veces más que el TAT-1, instalado
en 1956).
La
“World Wide Web” (www) fue creada en 1989 por Tim Barners Lee en el Instituto
Europeo de Investigación de Física de Partículas (CERN) en Ginebra (Suiza).
Barners-Lee presentó los conceptos en un artículo publicado en 1989, dónde se
propone un sistema para mantener y compartir la información de los trabajos
realizados por los físicos del CERN.
Este sistema, llamado “Mesh” originalmente, fue bautizado en 1990 por Barners-Lee como
“World Wide Web”. Barners-Lee se basó en la idea de “Hipertexto”, introducida en
1950 por Ted Nelson. Actualmente Barners-Lee dirige el “World Wide Web
Consortium” (W3C), un foro abierto para compañías y organizaciones con la
misión de llevar la web a su máximo potencial.
En
1990 cuatro empresas privadas (Digital Equipment, StrataCom, Northern Telecom y Cisco) deciden reunir sus esfuerzos
para implementar un protocolo de comunicaciones interoperable entre sus
equipos. La “Banda de los Cuatro” (“Gang
of Four”), como fueron denominados en su momento, sentó las bases de la
tecnología de Frame Relay, y en 1991 estableció el “Foro de Frame Relay” (Frame Relay Forum).
Rápidamente se sumaron muchas otras empresas, y al poco tiempo AT&T comenzó
a ofrecer servicios públicos de Frame Relay.
En
1995 fue instalada la primer aplicación comercial con tecnología DWDM (Dense Wavelength Division Multilplexion),
llegando a velocidades de 8.4 Tb/s, lo
que es suficiente para más de 100 millones de conversaciones telefónicas
simultáneas.
En
octubre de 1996 es ratificada la versión 1 de H.323, por el grupo de estudio 16 de la ITU-T. H.323 es el primer
estándar para la transmisión de
multimedia (voz, video y datos) a través de redes de paquetes. La
primer versión era relativamente básica,
y fue mejorada sucesivamente en 1998
(versión 2), 1999 (versión 3),
2001 (versión 4) y 2003 (versión 5).
En
1998 las compañías Ericsson, Nokia, IBM, Toshiba e Intel formaron un “Grupo de
Interés Especial” (SIG = Special Interest Group) para desarrollar una
tecnología de conectividad inalámbrica entre dispositivos móviles de uso personal, que utilizara la banda no
licenciada de frecuencias (ISM). Fue el
nacimiento de Bluetooth. El nombre Bluetooth tiene sus orígenes en Harald
Blåtand (en Inglés Harald I Bluetooth), quien
fue Rey de Dinamarca, entre los años 940 y el 985. El nombre “Blåtand” fue probablemente tomado de
dos viejas palabras danesas: 'blå', que significa “piel oscura” y 'tan' que
significa “gran hombre”. Como buen Vikingo, Harald consideraba honorable pelear
por tesoros en tierras extranjeras. En 960 llegó a la cima de su poder, gobernando y unificando
Dinamarca y Noruega. Así como el antiguo Harlad unificó Dinamarca y Noruega,
los creadores de Bluetooth esperan que ésta
tecnología unifique los mundos de los dispositivos informáticos y de
telecomunicaciones.
En
marzo de 1999 es aprobado el RFC 2543, por el grupo de estudio MMUSIC del IETF, dando origen oficial al
protocolo SIP (Session Initiaton
Protocol). SIP tiene sus orígenes a fines de 1996, como un componente
del “Mbone” (Multicast Backbone), El
Mbone, era una red experimental montada sobre la Internet, para la distribución
de contenido multimedia, incluyendo charlas, seminarios y conferencias de la
IETF. Uno de sus componentes esenciales era un mecanismo para invitar a
usuarios a escuchar una sesión multimedia, futura o ya establecida. Básicamente
un “protocolo de inicio de sesión”
(SIP).
En
junio de 2002, el RFC 2543 fue reemplazado por un conjunto de nuevas recomendaciones, entre las que se encuentran
los RFC 3261 al 3266. 2000 A partir de 1997 y hasta 2000, el auge de Internet
creció a ritmo acelerado. Las nuevas
empresas “puntocom” parecían ser la panacea de los inversionistas, prometiendo
rentabilidades elevadas, y cotizando en bolsa a valores sin precedentes. La
situación terminó en forma relativamente
abrupta, en 2000, cuando cayeron muchas de estas empresas, sin
generar los millones prometidos, y
dejando en bancarrota a la mayoría de los inversionistas.
En
junio de 2003, es aprobada la recomendación IEEE 802.11g, como evolución
tecnológica de la serie de
recomendaciones 802.11, de redes LAN inalámbricas. El mercado de LAN
inalámbrico tiene una marcada tendencia de crecimiento, desde 1997, cuando fue
ratificada por la IEEE la primer
recomendación de la serie 802.11. En gran medida, esta tendencia se ha dado gracias a la “Wi-Fi Alliance”, una
organización internacional formada en 1999 para certificar la interoperabilidad
de dispositivos de redes inalámbricas,
basadas en las recomendaciones IEEE 802.11. A partir de marzo de 2000 la Wi-Fi comenzó a extender
certificados de interoperabilidad. En 2004, se han certificado más de 1000
productos, de más de 200 compañías
miembros de Wi-Fi.
6.2
CONCEPTOS BÁSICOS
Después
de un recuento de lo más significativo que sucedió en las ultimas décadas con
lo que a comunicaciones se refiere es hora de entrar a profundizar en la
investigación, para esto debemos tener claros unos conceptos básicos como lo
que significa un transmisor, un receptor, el canal, las señales, y lo más
importante y tema central de esta investigación, las modulaciones.
6.2.1
LAS SEÑALES
Cuando
se habla de comunicaciones es evidente que se tocan muchos temas en profundidad
en especial lo referido a un transmisor, un receptor y un canal por el cual se
van a enviar información los dos participantes mencionados anteriormente.
Aunque el trabajo está enfocado a demostrar la modulación QAM como la más
eficiente de las modulaciones digitales más sobresalientes en las ultimas
décadas, es necesario tener claro los conceptos de transmisor, canal, receptor,
señal, y demás conceptos que están involucrados en un sistema de comunicación
ya sea de microondas, de radiofrecuencia, fibra óptica, entre otros.
6.2.1.1
¿QUE ES UNA SEÑAL?
Según
investigaciones, indagaciones hechas en libros, artículos y demás medios de
consulta, una señal puede ser definida como una portadora física de
información. Para un ámbito más matemático, las señales se representan por una
función de una o más variables.
6.2.1.2
SEÑALES EN TIEMPO DISCRETO
Las
señales en tiempo discreto son las cuales tienen un número de muestras finito
en un intervalo de tiempo dado. En la Figura1 podemos ver una señal discreta en
el tiempo.
Figura1: Señal discreta en el tiempo
6.2.1.3
SEÑALES ANALOGICAS
Son
variables eléctricas que evolucionan en el tiempo en forma análoga a alguna variable
física. Estas variables pueden presentarse en la forma de una corriente, una tensión
o una carga eléctrica. Varían en forma continua entre un límite inferior y un límite
superior. Cuando estos límites coinciden con los límites que admite un
determinado dispositivo, se dice que la señal está normalizada. La ventaja de trabajar con señales
normalizadas es que se aprovecha mejor la relación señal/ruido del dispositivo.
6.2.1.4
SEÑALES DIGITALES
Son
variables eléctricas con dos niveles bien diferenciados que se alternan en el tiempo
transmitiendo información según un código previamente acordado. Cada nivel eléctrico
representa uno de dos símbolos: 0 ó 1, V o F, etc. Los niveles específicos
dependen del tipo de dispositivos utilizado. Por ejemplo si se emplean
componentes de la familia lógica TTL, los niveles son 0 V y 5 V, aunque
cualquier valor por debajo de 0,8 V es correctamente interpretado como un 0 y
cualquier valor por encima de 2 V es interpretado como un 1 (los niveles de
salida están por debajo de 0,4 V y por encima de 2,4 V respectivamente). En el
caso de la familia CMOS, los valores dependen de la alimentación. Para
alimentación de +5 V, los valores ideales son también 0 V y 5 V, pero se
reconoce un 0 hasta 2,25 V y un 1 a partir de 2,75 V.
Estos
ejemplos muestran uno de los principales atractivos de las señales digitales, su
gran inmunidad al ruido.
6.2.2
CANAL DE COMUNICACIÓN
Así
como es necesario tener unos conceptos claros acerca de las señales ya que son
las que transportan la información, también debemos tener claro el medio por el
cual se va a enviar esta información, denominado canal. A grandes rasgos el
canal es el medio de transmisión por donde viajan las señales y se transmite la
información; el canal puede ser un enlace de radiofrecuencia, un enlace de
microondas, un enlace satelital, un tendido de fibra óptica, entre otros, pero
miremos a continuación un concepto un poco más robusto de lo que es el canal.
Un
canal de comunicación es el medio de transmisión por el que viajan las señales
portadoras de la información emisor y receptor, también llamado canal de datos.
En
comunicación, cada canal de transmisión es adecuado para algunas señales
concretas y no todos sirven para cualquier tipo de señal. Por ejemplo, la señal
eléctrica se propaga bien por canales conductores, pero no ocurre lo mismo con
las señales luminosas.
Un
canal está definido desde el punto de vista telemático por sus propiedades
físicas: naturaleza de la señal que es capaz de transmitir, velocidad de
transmisión, ancho de banda, nivel de ruido que genera, modo de inserción de
emisores y receptores, etc.
El
ejemplo más común de canal acústico es la atmósfera. Para señales
electromagnéticas se puede utilizar multitud de canales dependiendo de la
frecuencia de las señales transmitidas: cables, el vacío (satélites), la propia
atmósfera, etc.
Un
caso particular de canal electromagnético son las fibras ópticas,
especializadas en transmisiones luminosas, extraordinariamente rápidas e
insensibles al ruido o las posibles contaminaciones de la señal luminosa.
Los
canales son personales o masivos, los primeros son aquellos donde la
comunicación es directa, voz a voz. Los segundos pueden ser los escritos, radiales,
televisivos e informáticos.
En
nuestro trabajo, aplica para muchos canales de transmisión, ya que la
modulación QAM se implantó como la técnica de modulación más importante ya que
es capaz de comprimir mucha información para enviarla en un canal limitado
ancho de banda, este proceso es ideal para lo que hoy conocemos como BANDA
ANCHA, pero que es tema central de otro tipo de investigación que no está
involucrado en este trabajo pero que si vale la pena mencionar.
También
podemos decir que las señales se clasifican en aperiódicas y periódicas,
simétricas y asimétricas pero son temas en los cuales no es necesario
profundizar ya que se desviaría el enfoque de la investigación.
En
esta parte del canal podemos anexar la información referida al transmisor y al
receptor en un sistema de comunicaciones, el transmisor se refiere, ya sea al
circuito, antena, o demás elemento que radie, envíe información por un canal ya
sea alámbrico o inalámbrico, y el receptor hace referencia al elemento ya sea
una antena, en la mayoría de los casos,
que recibe esa información y la procesa, y de ser el caso, la retransmite a
otro punto de la comunicación.
Teniendo
claro los elementos básicos de un sistema de comunicaciones, entramos al
proceso de modulación y destacar las distintas clases de modulación digital
existentes en el ámbito de las comunicaciones, continuamos con los conceptos
básicos para entender este trabajo y entramos al tema de las modulaciones, las
técnicas las cuales hoy en día nos permiten hablar de banda ancha y de
prestación de servicios integrados de voz y datos por par de cobre y fibra
óptica en algunos casos.
6.2.3
LA MODULACION
6.2.3.1
HISTORIA DE MODULACION
Después
de hacer una breve acerca de las comunicaciones a lo largo de la historia;
ahora nos centraremos en los tipos de modulación existentes lo cual es el tema
principal en mi trabajo. Quiero comenzar emitiendo un breve concepto
relacionado con la modulación, posterior a esto realizare un recuento de los
distintos tipos de modulaciones existentes y cuál ha sido su evolución a lo
largo de la historia, comenzando por las modulaciones más básicas que son la AM
y FM, (Amplitud Modulada y Frecuencia Modulada respectivamente). Posterior a
esto hare mención a las modulaciones digitales utilizadas en la transmisión de
datos como la ASK, FSK, PSK, sus variaciones y la modulación QAM, que es
vanguardia en modulación, demodulación y
transmisión de datos, sus siglas traducen Modulación Por Amplitud De
Cuadratura. A continuación veremos un poco de historia y en qué consiste cada
una de estos tipos de modulaciones.
6.2.3.2
QUE ES LA MODULACION
Cuando
una señal no puede ser transmitida en su banda base por la distancia, por las
limitaciones de ancho de banda del canal o por la razón que sea, es necesario
modularla, lo cual significa usarla como patrón de transformación de otra onda,
la cual será realmente transmitida.
¿Porqué
una señal no podría ser transmitida en su banda base? Porque alguna de sus
características no se adecua al medio. En tal caso, hay que adecuar la señal, y
el modo de hacerlo es por medio de la Modulación.
De
este modo, podemos definir que la modulación es la acción que ejecuta un
modulador al modificar sistemáticamente una onda a la que llamamos portadora,
en función de un patrón que llamamos modulante y que es la banda base de la
señal que queremos transmitir, para obtener así una nueva onda que llamamos
modulada. Si la banda base es digital, en tal caso tenemos modulación digital.
En la Figura2 podemos ver el ejemplo claro del proceso de modulación de una
señal.
Figura2: Señal de entrada, y proceso
de modulación
El
proceso puede ser reversible si se conoce la función con la que ha sido
generada la portadora. Las señales senoidales tienen propiedades que le
permiten ser portadoras ideales y por tal motivo las portadoras suelen responder
a la función y = sen (wt) y ser generadas directamente dentro del modulador.
De
este modo, se puede concebir un bloque demodulador que tenga como objetivo
recibir de la línea una señal modulada, sustraerle la portadora y entregar la
modulante como banda base. Ambas secciones pueden estar construidas en el mismo
equipo, junto a la lógica de apoyo para filtrar los ruidos, generar y sustraer
las portadoras y comunicarse con el DTE que alimenta/recibe la banda base.
No hay comentarios:
Publicar un comentario