lunes, 18 de septiembre de 2017

Código Morse

Código Morse

El código Morse es un código o sistema de comunicación que permite la comunicación telegráfica a través de la transmisión de impulsos eléctricos de longitudes diversas o por medios visuales, como luz, sonoros o mecánicos. Este código consta de una serie de puntos, rayas y espacios, que al ser combinados entre si pueden formar palabras, números y otros símbolos.

Este sistema de comunicación fue creado en el año 1830 por Samuel F.B. Morse, un inventor, pintor y físico proveniente de los Estados Unidos, quien pretendía encontrar un medio de comunicación telegráfica. La creación de éste código tiene su origen en la creación del señor Morse de un telégrafo, invento que le trajo bastante dificultades, ya que, en un principio, el registro de este fabuloso invento le fue negado tanto en Europa como en los Estados Unidos. Finalmente, logró conseguir el financiamiento del gobierno americano, el que le permitió construir una línea telegráfica entre Baltimore y Washington. Un año después se realizaron las primeras transmisiones, resultando éstas bastante exitosas, lo que dio pie a la formación de una enorme compañía que cubriría a todos los Estados Unidos de líneas telegráficas.

Samuel F.B. Morse vivió desde 1791 hasta 1872. Para este último año, el de su muerte, el continente americano ya contaba con más de 300.000 kilómetros de líneas telegráficas que comunicaban casi todos los rincones del país.

Como se dijo anteriormente, la letras, números y demás signos, se representan en el código Morse a través de puntos y líneas que se transmiten como impulsos eléctricos que producen una señal de luz o de sonido de una duración determinada:

A ._

B _..

C _._.

D _.. 

E _.. 

F .._. 

G _ _. 

H .... 

I .. 

J ._ _ _ 

K _._ 

L ._.. 

M _ _

N _. 

O _ _ _ 

P ._ _. 

Q _ _ ._ 

R ._. 

S ... 

T _ 

U .._

V ..._

W ._ _ 

X _.._ 

Y _._ _

Z _ _..

0 _ _ _ _ _

1 ._ _ _ _

2 .._ _ _

3 ..._ _

4 ...._

5 .....

6 _....

7 _ _...

8 _ _ _..

9 _ _ _ _.



El punto es considerado, en el código Morse, como una unidad, que en tiempo equivale, aproximadamente a 1/25 seg. La línea, en tiempo, equivale a tres puntos. Cada letra se separa por un silencio de tres puntos de duración, mientras que cada palabra se separa por cinco puntos.

Expresiones matemáticas

El rotacional

El rotacional de una función vectorial es el producto vectorial del operador Nabla con una función vectorial:
Rotacional, Cilíndrico

El rotacional en un sistema de coordenadas polar cilíndrica, expresado en la forma de un determinante es:
Rotacional, Esférico

El rotacional en un sistema de coordenadas polar esférica, expresado en la forma de un determinante es:
Divergencia 
La divergencia de un campo vectorial en coordenadas rectangulares se define como el producto escalar del operador nabla por la función
La divergencia es una función escalar del campo vectorial. El teorema de la divergencia es una herramienta matemática importante en la Electricidad y el Magnetismo. 


Aplicaciones de Divergencia

La divergencia de un campo vectorial es proporcional a la densidad de las fuentes puntuales del campo. En la ley de Gauss para el campo eléctrico
la divergencia da la densidad de cargas puntuales. En ley de Gauss para el campo magnético
el valor cero de la divergencia implica que no hay fuentes puntuales de campo magnético.
Divergencia. Varias Coordendas

Comparada con la divergencia en coordenadas rectangulares:
En coordenadas polar cilíndrica:
y en coordenadas polar esférica:
Gradiente 
El gradiente es una operación vectorial, que opera sobre una función escalar, para producir un vector cuya magnitud es la máxima razón de cambio de la función en el punto del gradiente y que apunta en la dirección de ese máximo. En coordenadas rectangulares el gradiente de la función f(x,y,z) es: 
Si S es una superficie de valor constante, para la función f(x,y,z), entonces el gradiente sobre la superficie, define un vector que es normal a la superficie.

Aplicaciones Transferencia de Calor.Conducción
La divergencia del gradiente se llama el Laplaciano. Se usa ampliamente en física.

Ecuación de la impedancia

En los circuitos de corriente alterna (AC) los receptores presentan una oposición a la corriente que no depende únicamente de la resistencia óhmica del mismo, puesto que los efectos de los campos magnéticos variables (bobinas) tienen una influencia importante. En AC, la oposición a la corriente recibe el nombre de impedancia (Z), que obviamente se mide en Ω. La relación entre V, I, Z, se determina mediante la "Ley de Ohm generalizada".
donde:
- I: intensidad eficaz en A
- V: tensión eficaz en V.
- Z: impedancia en Ω.
 
La impedancia puede calcularse como:
Adaptación de impedancia 
 Electrónica. La adaptación o emparejamiento de las impedancias, consiste en hacer que la impedancia de salida de un origen de señal (como puede ser una fuente de alimentación o un amplificador) sea igual a la impedancia de entrada de la carga a la cual que se conecta.

El objetivo es obtener la máxima transferencia de potencia y aminorar las pérdidas de potencia por reflexiones desde la carga; sólo aplicable cuando ambos dispositivos son lineales.

En ocasiones en los circuitos eléctricos, se necesita encontrar la máxima transferencia de voltaje, en lugar de la máxima transferencia de potencia. En estos casos lo que se requiere es encontrar el valor de impedancia donde la impedancia de carga sea mucho más grande que la impedancia de la fuente.

Relación de Albert Enistein con el eclipse

Uno de los hitos históricos de la ciencia de la luz que consideró la Asamblea General de las Naciones Unidas al proclamar el año 2015 como Año Internacional de la Luz y de las Tecnologías basadas en la Luz es «la incorporación de la luz en la cosmología mediante la relatividad general en 1915» , es decir, la celebración este año del centenario de la publicación teoría de la relatividad general por Albert Einstein (1879-1955).

Como señala Adolfo de Azcárraga, presidente de la RSEF, en su libro En torno a Albert Einstein, su ciencia y su tiempo, la teoría einsteniana contenía una predicción espectacular: la luz también poseía ‘peso’, es decir, debía ser atraída y desviada por los cuerpos celestes». Puesto que la equivalencia entre aceleración y gravedad se extiende a los fenómenos electromagnético y la luz es una onda electromagnética, los rayos luminosos deberían curvarse en presencia de un campo gravitatorio. Einstein ya se dio cuenta de que la única forma de verificar experimentalmente su predicción teórica era durante un eclipse total de Sol que permitiría fotografiar una estrella cercana al Sol, sin la presencia de la potente luz solar. Pues bien, el 29 de mayo de 1919 habría un eclipse de Sol total desde algunos puntos de la superficie terrestre, lo que haría posible verificar esta curvatura de los rayos de luz.
BBVA-OpenMind-Augusto-Belendez-eclipse-teoria-relatividad-3jpg


El primero en darse cuenta que el eclipse del 29 de mayo de 1919 era una oportunidad única para verificar la teoría de Einstein fue Frank Dyson (1868-1939), astrónomo real británico y director del Royal Greenwich Observatory. El astrónomo británico Arthur Eddington (1882-1944), científico de prestigio, cuáquero devoto, pacifista convencido, director del Cambridge University Observatory y uno de los pocos que en aquellos años entendía la relatividad general de Einstein, publicó en marzo de 1919 en la revista The Observatory el artículo “The total eclipse of 1919 May 29 and the influence of gravitation on light”. En este artículo afirmaba que el eclipse de Sol del 29 de mayo de 1919 sería una oportunidad excepcional para estudiar la influencia del campo gravitatorio del Sol sobre un rayo luminoso proveniente de una estrella y así verificar la predicción de la teoría de la relatividad general de Einstein, publicada en noviembre de 1915. Según esta teoría los rayos luminosos rasantes a la corona solar deberían sufrir una desviación de 1.74 segundos de arco. Eddington también afirmaba que si se pudieran tomar fotografías del eclipse, éstas podrían compararse con las que ya se habían tomado con los telescopios de Greenwich y Oxford, que mostraban las mismas estrellas en sus posiciones reales, sin la posible distorsión debida al campo gravitatorio del Sol. En este artículo Eddington también señalaba que si la gravitación actúa sobre la luz, el momento lineal de un rayo luminoso cambiará gradualmente de dirección debido a la acción de la fuerza gravitatoria, del mismo modo que sucede con la trayectoria de un proyectil. Según la mecánica newtoniana la luz debería sufrir una desviación angular de 0.87 segundos de arco, es decir, la mitad de la desviación predicha por la relatividad general.

Para intentar comprobar la desviación de los rayos de luz por un campo gravitatorio se llevaron a cabo dos expediciones científicas británicas que emulaban a las de Malaspina, Cook y La Pérouse del siglo XVIII, la expedición Challenger y la de Darwin a bordo del Beagle en el siglo XIX o a la expedición británica antártica –conocida como expedición Discovery– de principios del siglo XX en la que participaron figuras como Ernest Shackleton o el malogrado Robert Scott. Estas expediciones fueron organizadas por la Royal Astronomical Society.

Frank Dyson fue el responsable de organizar ambas expediciones y cada una de ellas se dirigió a un lugar próximo al Ecuador terrestre. El eclipse no era visible en Europa y aunque podía observarse como parcial desde la mayor parte de Sudamérica y África, sólo era total si se observaba desde una estrecha franja que desde el océano Pacífico, atravesaba Brasil, el océano Atlántico y el África Ecuatorial hasta el océano Índico. Una expedición encabezada por Charles Davidson, asistente de Dyson en el observatorio de Greenwich, puso rumbo a Sobral, en el estado de Ceará, en la costa noreste de Brasil, y otra encabezada por Arthur Eddington a Isla del Príncipe, entonces perteneciente a Portugal y que hoy forma parte de un pequeño país llamado Santo Tomé y Príncipe, en el Golfo de Guinea, y se estableció en una plantación de cacao en Roça Sundy. Ambas expediciones partieron en marzo de Gran Bretaña, por lo que llegaron con tiempo de sobra a su destino para hacer todos los preparativos necesarios para una correcta observación del eclipse. Éste duró 6 minutos y 51 segundos, uno de los más largos del siglo XX. Durante el eclipse se tomaron un gran número de fotografías de estrellas alrededor de la corona del Sol (que normalmente no se verían a causa de su potente luz) y cuyo posterior estudio necesitó de varios meses. Eddington fue el responsable del análisis de los datos tomados en la Isla del Príncipe, mientras que Dyson lo fue de los de Sobral.
Según la teoría de la relatividad general los rayos de luz que pasan cerca del Sol deben desviarse ligeramente, porque la luz se curva debido al campo gravitatorio del Sol. Este efecto se puede observar experimentalmente sólo durante los eclipses, ya que de lo contrario el brillo del Sol oscurece las estrellas afectadas. Se compararon las posiciones reales y aparentes de unas trece estrellas y la conclusión fue tajante: el análisis de las medidas obtenidas de la desviación de los rayos de luz confirmaba la influencia del campo gravitatorio sobre la luz, tal y como predecía la teoría de Einstein. Se había verificado una de las predicciones teóricas más espectaculares que se haya hecho jamás y además tan sólo cuatro años después de haberse realizado. El físico, matemático y divulgador científico estadounidense Joseph P. McEvoy en su libro Eclipse publicado en 1999 señala que “una nueva teoría del universo, la creación de un judio alemán que trabajaba en Berlín, fue confirmada por un cuáquero inglés en una pequeña isla africana”. Eddington consideró que la verificación experimental de la desviación de un rayo luminoso por el campo gravitatorio del Sol, que ya vislumbró a través de un primer análisis de sus placas fotográficas cuando todavía se encontraba en la Isla del Príncipe, había sido el mejor momento de su vida.

Eddington, junto con Dyson y Davidson, publicó los resultados de las medidas tomadas en las islas Sobral y de Príncipe en enero de 1920 en un artículo titulado “A Determination of the Deflection of Light by the Sun’s Gravitational Field, from Observations Made at the Solar eclipse of May 29, 1919” –que habían enviado el 30 de octubre de 1919– y fueron la prueba concluyente que validaba la teoría de la relatividad general de Albert Einstein. El 7 de noviembre de 1919 el periódico londinense The Times anunciaba a bombo y platillo: «Revolution in science/new theory of the universe/newtonian ideas overthrown» (Revolución en la ciencia/nueva teoría del universo/las ideas newtonianas derrocadas). Tres días después, el 10 de noviembre de 1919 el New York Times publicaba «Light All Askew in the Heavens/Men of Science More or Less Agog Over Results of Eclipse Observations/Einstein Theory Triumphs» (Luces colgando en el cielo/Hombres de ciencia más o menos excitados por los resultados de las observaciones del eclipse/La teoría de Einstein triunfa).

Pero del éxito de la expedición y de sus conclusiones no sólo se hicieron eco los periódicos británicos y estadounidenses. Casi en las antípodas de la Gran Bretaña, el periódico australiano Western Argus en su página 2 publicaba también el 20 de enero de 1920 «Revolution in science/new theory of the universe».

Las expediciones a Sobral e Isla del Príncipe, así como los resultados de las medidas tomadas durante el eclipse total de Sol del 29 de mayo de 1919, habían traspasado fronteras y no sólo las de los países, sino también entre los científicos y el gran público, catapultando a Einstein a la fama mundial. Había nacido una estrella gracias a la desviación de la luz de otras estrellas.

Bombas atómicas

Bombas atómicas  

El funcionamiento de una bomba atómica es similar al funcionamiento de un reactor nuclear, en el que la masa del combustible es muy superior a la masa crítica. Inicialmente, el combustible es fragmentado, y cada uno de los pedazos, suficientemente alejados de los demás, de modo que no sea atendida la talla crítica; la explosión se produce en acercar los fragmentos entre ellos bruscamente.

A fin de aumentar el rendimiento y la eficacia de una bomba atómica se deben utilizar combustibles prácticamente puros; los utilizados hasta ahora han sido el uranio-235 y el plutonio-239. El uranio-235 es difícil y caro de obtener, porque no es posible separarlo químicamente del uranio natural y se debe recurrir a procedimientos físicos como la difusión gaseosa. El plutonio-239, que aparece como subproducto en los reactores de uranio natural, puede ser aislado por procedimientos químicos clásicos.

En la bomba de hidrógeno, la fusión de los núcleos de átomos ligeros (corrientemente hidrógeno 2 e hidrógeno 3) desprende una energía calorífica específica mucho mayor que las bombas atómicas. Sin embargo, para iniciar la reacción de fusión son necesarias temperaturas muy elevadas, conseguidas corrientemente asociando una bomba atómica en una bomba de hidrógeno.
Contrariamente a las bombas atómicas, las bombas de hidrógeno no contaminan el lugar de explosión con productos radiactivos.

Se mide la energía explosiva de las bombas atómicas por comparación con la desprendida por una masa de un millón de toneladas de TNT (megatón).
Resultado de imagen para bomba atomica

La historia 

A raíz del descubrimiento de la fisión hacia finales de 1938, una serie de científicos se dedicaron especialmente a estudiar este fenómeno. Leo Szilard, Eugene Paul Wigner, Albert Einstein y otros recibieron (1939) del gobierno de EE.UU. un crédito inicial para hacer una investigación profunda de la energía nuclear de cara al desarrollo de la bomba atómica.

El hecho de intervenir los estadounidenses en la Segunda Guerra Mundial hizo aumentar notablemente los presupuestos de las investigaciones, lo que las aceleró. El 2 de diciembre de 1942 consiguieron poner en marcha el primer reactor nuclear, con intervención directa de Enrico Fermi, que fue la base de los primeros cálculos serios de la energía que se podía liberar en una bomba nuclear.

Los trabajos para la consecución de la primera bomba nuclear de fisión fueron llevados a cabo en Los Alamos bajo la dirección de Jacob Robert Oppenheimer con el nombre de Proyecto Manhattan, y la prueba tuvo lugar en Alamogordo (Nuevo México) el 16 de julio de 1945. El combustible empleado fue plutonio-239.

Una bomba atómica de uranio-235 fue lanzada sobre Hiroshima (Japón) el 6 de agosto de 1945. El 9 de agosto del mismo en una bomba de plutonio-239 arrasó Nagasaki (Japón). Posteriormente, la URSS (1949), Reino Unido (1952), Francia (1960) y la República Popular China (1965) han probado y construido sus propias bombas nucleares.

Resultado de imagen para bomba atomica vs bomba de hidrogeno

Radiotelescopio

Los radiotelescopios

El radiotelescopio es un instrumento que sirve para capturar ondas de radio, emitidas por fuentes de radio; la mencionada captación es plausible a partir de una enorme antena parabólica o conjunto de ellas, que dispone el instrumento.



El origen del radiotelescopio se le debe a Grote Reber, un ingeniero norteamericano, considerado el pionero de la radioastronomía, quien construyó una antena de 9 metros que dirigió a tal fin.

La astronomía realiza un recurrente uso de este aparato, aún más, existe una rama dentro la misma, la radioastronomía, que lleva a cabo sus observaciones a través de justamente radiotelescopios. Una importante cantidad de los objetos celestes que priman en el universo, tales como los pulsars o las galaxias activas, emiten radiaciones de radiofrecuencia y por tanto es que son más visibles o directamente solo visibles en aquella región de radio del espectro electromagnético. Entonces, estudiando la frecuencia, la potencia y los tiempos de emisiones de radio que ostentan los objetos celestes en cuestión es que se ha podido avanzar en el conocimiento y en la comprensión del universo.

Bandas de Frecuencia

Las ondas de radio reciben también el nombre de “corrientes de radiofrecuencia” (RF) y se localizan en una pequeña porción del denominado “espectro radioeléctrico” correspondiente al espectro de ondas electromagnéticas.

El espectro radioeléctrico o de ondas de radio comprende desde los 3 kHz de frecuencia, con una longitud de onda de 100 000 m (100 km), hasta los 30 GHz de frecuencia, con una longitud de onda de 0,001 m< (1 mm).
Porción de 3 kHz a 300 GHz de frecuencia del espectro electromagnético, correspondiente al espectro. radioeléctrico u ondas de radio. Aquí se puede apreciar la división de las frecuencias en las bandas de. radio en las que se divide esta parte del espectro.
La porción que abarca el espectro de las ondas electromagnéticas de radio, tal como se puede ver en la ilustración, comprende las siguientes bandas de frecuencias y longitudes de onda:

Mientras más alta sea la frecuencia de la corriente que proporcione un oscilador, más lejos viajará por el espacio la onda de radio que parte de la antena transmisora, aunque su alcance máximo también depende de la potencia de salida en watt que tenga el transmisor.

Muchas estaciones locales de radio comercial de todo el mundo aún utilizan ondas portadoras de frecuencia media, comprendidas entre 500 y 1 700 kilociclos por segundo o kilohertz (kHz), para transmitir su programación diaria. Esta banda  de  frecuencias,  comprendida  dentro  de  la  banda  MF  (Medium. Frequencies - Frecuencias Medias), se conoce como OM (Onda Media) o MW (Medium Wave). Sus longitudes de onda se miden en metros, partiendo desde los 1 000 m y disminuyendo progresivamente hasta llegar a los 100 m . Por tanto, como se podrá apreciar, la longitud de onda disminuye a medida que aumenta la frecuencia.

Cuando el oscilador del transmisor de ondas de radio genera frecuencias más altas, comprendidas entre 3 y 30 millones de ciclos por segundo o megahertz (MHz), nos encontramos ante frecuencias altas de OC (onda corta)  o  SW  (Short Wave),  insertadas  dentro  de  la  banda  HF ( High Frequencies – Altas. Frecuencias), que cubren distancias mucho mayores que las ondas largas y medias. Esas frecuencias de ondas cortas (OC) la emplean, fundamentalmente, estaciones de radio comerciales y gubernamentales que transmiten programas dirigidos a otros países. Cuando las ondas de radio alcanzan esas altas frecuencias, su longitud se reduce, progresivamente, desde los 100 a los 10 metros.

Dentro del espectro electromagnético de las ondas de radiofrecuencia se incluye también la frecuencia modulada (FM) y las ondas de televisión, que ocupan las bandas de VHF (Very High Frequencies – Frecuencias Muy Altas) y UHF (Ultra High Frequencies – Frecuencias Ultra Alta). Dentro de la banda de UHF funcionan también los teléfonos móviles o celulares, los receptores GPS (Global Positioning System – Sistema de Posicionamiento Global) y las comunicaciones espaciales. A continuación de la UHF se encuentran las bandas SHF (Super High Frequencies – Frecuencias Superaltas) y EHF (Extremely High. Frequencies – Frecuencias Extremadamente Altas). En la banda SHF funcionan los satélites de comunicación, radares, enlaces por microonda y los hornos domésticos de microondas. En la banda EHF funcionan también las señales de radares y equipos de radionavegación.



En este enlace podrás descargar las bandas de frecuencia del país.

¿Porque se utiliza el aluminio en las antenas?

El aluminio en las antenas



En las piezas (alambres, cables, barras) de las antenas circulan corrientes de alta frecuencia. Por lo tanto, para que no existan considerables pérdidas por disipación Joule, es necesario que el material sea buen conductor eléctrico. Pero cuando se trata de alta frecuencia, ser buen conductor tiene otra ventaja: la onda casi no penetra en el metal, sino que se desvanece en un pequeñísimo espesor (como se explica en la sección siguiente). Esta es una de las importantes razones por las que en la fabricación de antenas relativamente grandes se utilizan tubos y que sean de aluminio.

Mejor conductor que el aluminio es el oro, y mejor aún el cobre (σ ≈ 5.80×107S/m). Pero el oro es demasiado caro y el cobre además de ser relativamente caro, también es demasiado denso (δ ≈ 8.94g/cm3). El aluminio es muy maleable, posee suficiente resistencia máxima a la tracción ("tensile strength", σTS > 90MPa) y una extremadamente baja densidad (δ ≈ 2.71g/cm3). Por lo tanto tiene muy buena resistencia específica (≡ σTS/δ). Su superficie se oxida rápidamente con un óxido que protege al material de una oxidación posterior (a diferencia de lo que ocurre con el hierro, que continúa oxidándose). Y además, como se dijo antes, por ser muy buen conductor eléctrico (con conductividad eléctrica σ ≈ 3.54×107S/m, un 61% de la conductividad del cobre), la "profundidad de penetración" δskin de ondas de alta frecuencia es menor. Por lo tanto, es suficiente que los electrodos de las antenas sean cañitos con paredes de poco espesor (en vez de ser barras macizas).




En el caso de las antenas "telescópicas" que se observan en las radios de FM, también se usan tubos, pero en vez de aluminio, para estos tubos concéntricos se utiliza algún tipo de latón (que es básicamente una aleación de cobre con aproximadamente un 30% de zinc) o de bronce (cobre con un 10% de estaño), que son mecánicamente más resistentes, aunque más densos. Para que también sean químicamente resistentes (a la corrosión), suelen tener la superficie "niquelada", lo que hace que también sean más caros. Pero su mayor peso y costo, no es un problema en las antenas pequeñas de las radios portátiles.

Doctora Julieta Fierro


La doctora Julieta Norma Fierro Gossman es Investigador Titular, de tiempo completo, del Instituto de Astronomía de la UNAM y Profesora de la Facultad de Ciencias de la misma. Ocupa la Silla XXV de la Academia Mexicana de la Lengua y es miembro del Sistema Nacional de Investigadores en el máximo nivel.

El área de trabajo de Julieta Fierro ha sido la materia interestelar y sus trabajos más recientes se refirieron al Sistema Solar.

Ha incursionado en labores de educación en a UNAM desde hace 40 años y colaborado en el Correo del Maestro (publicación para los profesionales de la educación básica). Fue Presidente de la Comisión 46, dedicada a la enseñanza de la astronomía de la Unión Astronómica Internacional y Presidenta de la Academia Mexicana de Profesores de Ciencias Naturales.

Julieta Fierro ha escrito 41 libros de divulgación y decenas de publicaciones diversas. Redactó varios capítulos en textos de preescolar y secundaria sobre ciencia. Trece de sus obras forman parte de las bibliotecas de aula. Participa de manera sistemática en programas de radio y televisión. Ha dictado centenares de conferencias en 39 países.

Ha colaborado con exposiciones sobre astronomía en diversos lugares de la República de los que cabe destacar la Sala de Astronomía de Universum, el Museo Descubre de Aguascalientes y la Semilla en Chihuahua. Además colaboró en la creación de exposiciones en Puerto Rico, en el Observatorio McDonald en los EUA y en la Feria Internacional de Aichi, Japón.
La investigadora mexicana fue directora General de Divulgación de la Ciencia de la UNAM y miembro de la mesa directiva de la Sociedad Astronómica del Pacífico, así como presidenta de la Sociedad Mexicana de Museos de Ciencia.


Julieta Fierro recibió los premios de Divulgación de la Ciencia de la Academia de Ciencias del Tercer Mundo y el Nacional de Divulgación de la Ciencia de 1992; así como los Premios Kalinga de la UNESCO en París en 1995; la Medalla de Oro Primo Rovis del Centro de Astrofísica Teórica de Trieste de 1996; el Premio Klumpke-Roberts de la Sociedad Astronómica del Pacífico en los EUA, el Premio Latinoamericano de Popularización de la Ciencia en Chile en el 2001. En 2003 le fue entregada La Medalla al Mérito Ciudadano de la Asamblea de Representantes del Distrito Federal. Durante 2004 recibió la Medalla Benito Juárez y fue la Mujer del Año. En 2005 se le otorgó el reconocimiento Flama de la Universidad Autónoma de Nuevo León. En 2006 fue galardonada con el Master de Oro y un Doctorado Honoris Causa del CITEM. 2007 fué cuando recibió la Medalla de Oro de la Universidad Latinoamericana y se instituyó la medalla Julieta Fierro. Con el 2009 llegaron el Premio Sor Juana Inés de la Cruz que otorga la UNAM y un Doctorado Honoris Causa de la Universidad Autónoma de Morelia. En el transcurso de 2010 recibió la presea Sebastián y un homenaje del Liceo Franco Mexicano. En 2011 fue la acreedora de las Medallas Vasco de Quiroga y de la Sociedad Astronómica de México. A su vez durante 2012 logró los Reconocimientos de Mujer Notable de Sanofi y Clara Zetkin.





Primera transmisión de televisión en América Latina

 1ª estación experimental de televisión en Latinoamérica
 06 de septiembre de 2013     
El 7 de septiembre de 1946 se inauguraba la primera estación experimental de televisión en Latinoamérica, denominada XEIGC. Te invitamos a recorrer cronológicamente la historia de la televisión tanto en el mundo como en México. 
Los orígenes de la televisión se remontan al siglo XIX, donde se realizaron los primeros descubrimientos que darían paso a los mecanismos a través de los cuales funciona la televisión. Foto: sxc.hu
Los orígenes de la televisión se remontan al siglo XIX, donde se realizaron los primeros descubrimientos que darían paso a los mecanismos a través de los cuales funciona la televisión. Foto: sxc.hu
Transcurrían las 20:30 horas del día 7 de septiembre de 1946, cuando en México fue oficialmente inaugurada la XEIGC, conocida como la primera estación experimental de televisiónen Latinoamérica. 

¿Cómo nace la televisión tanto en el mundo como en México?

-    Finales del siglo XIX - Se descubre la fototelegrafía, técnica para realizar una transmisión electromagnética de imagen y sonido.

-    1884 – Paul Nipkow desarrolló el disco de exploración lumínica, el cual permitía reproducir una imagen por completo gracias a una rotación frente a una célula fotoeléctrica. 

-    1900 –Reginal A. Fessenden transmite las primeras palabras sin cable.

-    1923 –Vladimir Kosma Zworykin crea el iconoscopio, base fundamental para lo que sería la televisión electrónica.

-    1925 – El físico escocés John Logie Baird realiza una demostración en Londres del primer sistema de televisión. Esta televisión transmitía 12.5 imágenes por segundo con una definición de 30 líneas.

-    1928 – Ernst Alexanderson transmite la imagen de una persona en tres hogares distintos. Este mismo año el gobierno Federal de Estados Unidos autoriza la primera estación de TV experimental: AT&T.

-    1929 – John Logie Baird realiza las primeras transmisiones experimentales de televisión en Gran Bretaña. 

-    1934 – Se establece la Federal Communications Commission (FCC). A su vez, en México Guillermo González Camarena realiza una serie de experimentos con un sistema de televisión de circuito cerrado, en un pequeño laboratorio instalado en la estación de radio XEFO. 

-    1936 – El gobierno nazi utiliza la televisión durante los Juegos Olímpicos de Berlín, logrando realizar la primera transmisión en directo. Mientras que en Reino Unido se inaugura el primer servicio de televisión a nivel mundial.

-    1939 - González Camarena impacta al mundo al inventar la televisión a color, gracias a su sistema tricromático secuencial de campos.

-    1946 – Se inaugura en México oficialmente la primera estación experimental de televisión en Latinoamérica, conocida como XEIGC. En un principio, esta emisora transmite los sábados un programa artístico y de entrevistas. 

-    1950 – El 31 de agosto se inaugura el Canal 4 de la Ciudad de México, siendo éste el primer canal comercial de televisión de México y América Latina. El 1° de septiembre de este mismo año se transmite el primer programa con la lectura del IV Informe de Gobierno del Presidente de México, Miguel Alemán Valdés.

-     1951 – Se inaugura XEW-TV Canal 2.

-    1954 - RCA lanza el primer televisor a color, el CT-100, con pantalla de 15 pulgadas. La teledifusión en color se inicia.

-    1956 – En México se fusionan los canales 4, 5 y 2 creando Telesistema Mexicano.

-    1959 – Comienza a emitir la señal del Canal 11 delInstituto Politécnico Nacional.

-    1968 – Comienza a operar en el país XHTIM Canal 8 y XHDF-TV Canal 13. A su vez, se incursiona en la comunicación vía satélite, transmitiendo a todo el mundo los diversos eventos de la XIX Olimpiada México 68.

-    1971 – El canal 8 (actualmente XEQ-TV Canal 9) se une a Telesistema Mexicano que, a su vez, se transforma en Televisa (Televisión Vía Satélite). 

-    1979 – Comienza a operar el primer servicio de televisión por cable en México con Cablevisión de Televisa. 

-    1984 – Inician las operaciones del Canal 7 y Canal 12, dando origen al sistema de televisión estatal Imevisión. 

-    1989 – Inicia operaciones MVS Multivisión, el primer servicio de televisión restringida vía aire en México y América Latina. 

Biografía de James Clerk Maxwell

Hay personas que quedan en la historia por lo que vivieron y, otros por los aportes que realizaron a la humanidad. Muchos científicos cambiaron la forma en que vemos las cosas y uno de ellos fue James Clerk Maxwell. Quizá el nombre no te suena, pero su principal aporte es una de las bases de la física moderna: la teoría electromagnética.
Nacido en Escocia el año 1831, James Clerk Maxwell fue un prodigio desde temprana edad, incluso durante su adolescencia presentó un ensayo ante la Real Sociedad de Edimburgo y, a los 16 años, entró a la Universidad de Edimburgo, para luego pasar a la prestigiosa Universidad de Cambridge.
Con grandes conocimientos en física y matemáticas, dos campos que logró compatibilizar en sus trabajos, se dedicó primero a dar clases, para luego renunciar y sumergirse exclusivamente en la investigación.
Su principal campo de estudio fue la relación entre el magnetismo y la luz: Maxwell, creía que la electricidad y el magnetismo están fuertemente conectados, dando pie al llamado electromagnetismo.
Su aporte más importante a la ciencia fue plasmado en su libro Tratado sobre Electricidad y Magnetismo, publicado el año 1873, y en en el que expone su teoría electromagnética, aunque antes la compartió con sus colegas mediante el ensayo Teoría dinámica del campo electromagnético en 1864.
Este brillante científico falleció el año 1879 y, su legado a la ciencia fue tan importante, que incluso Einstein se basó en este para su teoría de la relatividad.
Teoría electromagnética
El mayor aporte que hizo James Clerk Maxwell a la ciencia fue la Teoría Electromagnética, la cual es utilizada hasta hoy en día. Esta teoría propone que luz, magnetismo y electricidad son parte de un mismo campo, llamado electromagnético, y en el que se mueven y propagan en ondas transversales.
Las ondas electromagnéticas pueden atraerse o repelerse según el sentido en el que viajen y, estas se propagan libremente a la velocidad de la luz. Su visibilidad depende de la longitud de la onda.
Maxwell, utilizó cuatro ecuaciones para demostrar su teoría, la cuales dan la base a varios campos de estudio de la física moderna. Albert Einstein consideró los aportes de Maxwell a las ciencias como los más importantes desde los tiempos de Newton.

Biografía Bill Gates

 


(William Henry Gates III; Seattle, Washington, 1955) Informático y empresario estadounidense, fundador de Microsoft. La fortuna de este precoz programador, que no llegó a terminar sus estudios y que a los 31 años era ya multimillonario, procede del éxito arrollador de su sistema operativo, el MS-DOS (1981), que evolucionaría hasta convertirse en el popular Windows 3.1 (1992) y daría lugar a las sucesivas versiones de este sistema operativo, omnipresente hasta nuestros días en la inmensa mayoría de los ordenadores portátiles y de sobremesa.

Es difícil juzgar hasta qué punto fue suerte o genial intuición advertir que, en la eclosión de la informática de consumo, había un mercado tan valioso en la fabricación de ordenadores (hardware) como en la creación del sistema operativo y de los programas que habían de emplearse en ellos (software). Lo cierto es que, mientras los fabricantes competían duramente por el hardware, una serie de circunstancias llevaron a que su sistema operativo se extendiese hasta quedar sin apenas competencia. De hecho, a menudo se ha acusado a Microsoft de prácticas monopolísticas, y a su fundador de falta de verdadera creatividad. Pero, aun admitiéndolo, deberá reconocerse que su contribución efectiva a la popularización de la informática (y a la vertiginosa escalada tecnológica que ha conllevado) fue inmensa.

Bill Gates nació en una familia acomodada que le proporcionó una educación en centros de élite como la Escuela de Lakeside (1967-73) y la Universidad de Harvard (1973-77). Siempre en colaboración con su amigo Paul Allen, se introdujo en el mundo de la informática formando un pequeño equipo dedicado a la realización de programas que vendían a empresas o administraciones públicas.

En 1975 se trasladaron a Alburquerque (Nuevo México) para trabajar suministrando a la compañía MITS una serie de programas susceptibles de ser utilizados con el primer microordenador, el Altair, para el cual habían desarrollado una versión del lenguaje de programación BASIC. Ese mismo año fundaron en Alburquerque su propia empresa de producción de software informático, Microsoft Corporation, con Bill Gates como presidente y director general. Su negocio consistía en elaborar programas adaptados a las necesidades de los nuevos microordenadores y ofrecérselos a las empresas fabricantes más baratos que si los hubieran desarrollado ellas mismas. Cuando, en 1979, Microsoft comenzó a crecer (contaba entonces con dieciséis empleados), Bill Gates decidió trasladar su sede a Seattle.

A principios de la década de 1970, la invención del microprocesador permitió abaratar y reducir el tamaño de las gigantescas computadoras existentes hasta entonces. Era un paso decisivo hacia un sueño largamente acariciado por muchas empresas punteras en el sector tecnológico: construir ordenadores de tamaño y precio razonable que permitiesen llevar la informática a todas las empresas y hogares. El primero en llegar podría iniciar un negocio sumamente lucrativo y de enorme potencial. Era impensable que una empresa como Microsoft, dedicada solamente al software (sistemas operativos y programas) pudiese jugar algún papel en esta carrera entre fabricantes de hardware, es decir, de máquinas.
Bastante ingenuamente, Apple cometió el error de dar a conocer a otras empresas las especificaciones exactas del Apple II. Para desarrollar su primer ordenador personal, la empresa IBM copió y adaptó la arquitectura abierta del ordenador de Apple y escogió el microprocesador Intel 8088, que manejaba ya caracteres de 16 bits. De este modo, en 1981, IBM pudo lanzar su primer PC (Personal Computer, ordenador personal). Pero el sistema operativo de su PC, imprescindible para su funcionamiento, no había sido creado por IBM, sino por Microsoft. Un año antes, en 1980, Bill Gates había llegado a un acuerdo con IBM para suministrarle un sistema operativo adaptado a sus ordenadores personales, el MS-DOS, que desde 1981 iría instalado en todos los ordenadores de la marca.

IBM obtuvo un gran éxito comercial con su PC. Con un precio que, con el paso de los años, sería cada vez más asequible, cualquier consumidor podía comprar una computadora de tamaño reducido, cuyas aplicaciones no hacían sino aumentar, y que abarcaban tanto el ocio como múltiples actividades laborales. Pero IBM también cometió errores en el uso de la patente. Muchas empresas, conscientes del gran boom que se avecinaba, se lanzaron a la fabricación y comercialización de PC compatibles, llamados en la jerga informática clónicos, más económicos que los de IBM.

El mercado se inundó de ordenadores personales compatibles con el de IBM que funcionaban con el sistema operativo de Microsoft, que podía venir instalado o adquirirse por separado, porque, aunque IBM lo había encargado, el MS-DOS no era de sus propiedad: había cedido los derechos de venta a Microsoft. Por otro lado, aparte de las empresas y administraciones, no siempre los usuarios adquirían la licencia del MS-DOS. Era sencillísimo conseguir una copia e instalarlo sin pagar, hecho que favoreció aún más su difusión.
Aún existían otra opciones, pero se quedaron en minoritarias: gracias a su bajo coste, la combinación PC más MS-DOS acabó copando el mercado y convirtiéndose en el estándar. Mientras los fabricantes de ordenadores intentaban reducir costes, entregados a una guerra de precios de la que nadie pudo sacar una posición dominante, una empresa de software, la de Bill Gates, se hizo con prácticamente todo el mercado de sistemas operativos y buena parte del de programas.

A partir de ese momento, la expansión de Microsoft fue espectacular. Y no sólo porque los PC necesitaban un sistema operativo para funcionar, sino también porque los programas y aplicaciones concretas (un procesador de textos, un hoja de cálculo, un juego) se desarrollan sobre la base de un sistema operativo en concreto, y ese sistema era el MS-DOS. Las distintas empresas de software (y entre ellas la misma Microsoft) podían desarrollar, por ejemplo, distintos procesadores de textos, compitiendo entre ellas para agradar al usuario. Pero como la inmensa mayoría de usuarios tenía MS-DOS, desarrollaban programas para funcionar con MS-DOS, y acababan por hacer un favor a Microsoft, que podía presumir de que sobre su sistema operativo podían funcionar todos los programas imaginables: los suyos y casi todos los de la competencia. Esa retroalimentación viciosa era el fabuloso activo de Microsoft, y Bill Gates supo conservarlo.


Bill Gates

El MS-DOS, sin embargo, era un entorno poco amigable, cuyo manejo requería el conocimiento de comandos que se introducían a través del teclado. Con el lanzamiento en 1984 del ordenador personal Macintosh, Apple pareció tomar de nuevo la delantera. Su sistema de ventanas supuso un salto cualitativo; su interfaz simulaba la distribución de una mesa de trabajo por medio de iconos. Un pequeño aparato, el ratón, cuyo movimiento se reflejaba en la pantalla con un icono parpadeante, permitía recorrerla en busca del documento o programa buscado. En lugar de tener que recordar los comandos de cada una de las operaciones y teclearlos en cada momento, bastaba acudir a los listados de acciones posibles y hacer clic con el ratón sobre la opción elegida.

Por el momento, aquellas innovaciones no parecían hacer sombra a Bill Gates. En 1983 Paul Allen dejó Microsoft, aquejado de una grave enfermedad. Y cuando, en 1986, Microsoft salió a la Bolsa, las acciones se cotizaron tan alto que Bill Gates se convirtió en el multimillonario más joven de la historia. Volcado en un proceso de innovación tecnológica acelerada, y en su caso imitando más el Macintosh de Apple que innovando, Gates lanzó una interfaz gráfica para MS-DOS llamada Windows: Windows 3.0 en 1990 y Windows 3.1 en 1992.

No era, en realidad, un nuevo sistema operativo, sino, como se ha dicho, una interfaz gráfica con ratón, iconos y ventanas bajo la que seguía corriendo el viejo MS-DOS, pero fue muy bien recibido por los usuarios, que disponían finalmente de un sistema tan intuitivo como el de Macintosh pero mucho más económico al funcionar sobre un PC, gracias a lo cual se impuso fácilmente en el mercado. El enorme éxito llevó a la verdadera renovación que fue Windows 95 (en cuya campaña de promoción a escala mundial asumió el propio Gates el papel de profeta de la sociedad cibernética como personificación de Microsoft), al que seguirían Windows 98 y las sucesivas versiones de este sistema operativo, de entre las que sobresale Windows XP (2001), el primero cien por cien de nuevo cuño, que dejaba completamente de lado el antiguo MS-DOS.


Bill Gates en la presentación de Windows XP

Entretanto, el negocio no había cesado de crecer (de los 1.200 empleados que tenía en 1986 hasta más de 20.000 en 1996), y, con la generalización de Windows, Bill Gates pasó a ejercer un virtual monopolio del mercado del software mundial, reforzado por su victoria en el pleito de 1993 contra Apple, que había demandado a Microsoft por considerar que Windows era un plagio de la interfaz gráfica de su Macintosh. Desde 1993 embarcó a la compañía en la promoción de los soportes multimedia, especialmente en el ámbito educativo.

Además de Windows, muchos de los programas y aplicaciones concretas más básicas e importantes producidas por la empresa (el paquete ofimático Microsoft Office, por ejemplo) eran siempre las más vendidas. Surgieron muchas voces críticas que censuraban su posición monopolística, y en numerosas ocasiones Microsoft fue llevada por ello a los tribunales por empresas competidoras y gobiernos, pero nada logró detener su continua ascensión.

Empresario y filántropo

El talento de Gates se ha reflejado en múltiples programas informáticos, cuyo uso se ha difundido por todo el mundo como lenguajes básicos de los ordenadores personales; pero también en el éxito de una empresa flexible y competitiva, gestionada con criterios heterodoxos y con una atención especial a la selección y motivación del personal. Las innovaciones de Gates contribuyeron a la rápida difusión del uso de la informática personal, produciendo una innovación técnica trascendental en las formas de producir, transmitir y consumir la información. El presidente Bush reconoció la importancia de la obra de Gates otorgándole la Medalla Nacional de Tecnología en 1992.


Gates con su esposa Melinda

Su rápido enriquecimiento ha ido acompañado de un discurso visionario y optimista sobre un futuro transformado por la penetración de los ordenadores en todas las facetas de la vida cotidiana, respondiendo al sueño de introducir un ordenador personal en cada casa y en cada puesto de trabajo; este discurso, que alienta una actitud positiva ante los grandes cambios sociales de nuestra época, goza de gran audiencia entre los jóvenes de todo el mundo por proceder del hombre que simboliza el éxito material basado en el empleo de la inteligencia (su libro Camino al futuro fue uno de los más vendidos en 1995).

Los detractores de Bill Gates, que también son numerosos, le reprochan, no sin razón, su falta de creatividad (ciertamente su talento y sus innovaciones no son comparables a las de un Steve Jobs, y más bien siguió los caminos que abría el fundador de Apple), y critican asimismo su política empresarial, afirmando que se basó siempre en el monopolio y en la absorción de la competencia o del talento a golpe de talonario. A los críticos les gusta subrayar un hecho totalmente real, pese a que parezca una leyenda urbana: ni siquiera el MS-DOS es obra suya. Bill Gates lo compró por 50.000 dólares a un programador de Seattle llamado Tim Paterson, le cambió el nombre y lo entregó a IBM.

En la actualidad, Microsoft sigue siendo una de las empresas más valiosas del mundo, pese a haber perdido diversas batallas, especialmente la de Internet y la de los sistemas operativos para teléfonos móviles, que lidera ahora Google (Sergei Brin y Larry Page), otro gigante tan valioso como Microsoft. Frente al dinamismo de la era de Internet, en la que surgen y se convierten rápidamente en multimillonarias nuevas ideas como la red social Facebook, de Mark Zuckerberg, la empresa de Gates parece haber quedado algo anquilosada, aunque no se pone en duda la solidez de su posición.

Tampoco ello es exclusiva responsabilidad de Bill Gates, que ya en el año 2000 cedió la presidencia ejecutiva de Microsoft a Steve Ballmer y pasó a ser arquitecto jefe de software para centrarse en los aspectos tecnológicos. Bill Gates había contraído matrimonio en 1994 con Melinda French, con la que tendría tres hijos. En el año 2000 creó, junto con su esposa, la Fundación Bill y Melinda Gates, institución benéfica dedicada a temas sanitarios y educativos cuya espléndida dotación económica procede mayormente de su fortuna personal. No en vano el fundador de Microsoft es un habitual de las listas anuales de la revista Forbes: en 2014 la había encabezado ya en quince ocasiones como el hombre más rico del planeta.

En 2008, Bill Gates abandonó definitivamente Microsoft para dedicarse íntegramente a sus labores en la fundación, que había recibido el Premio Príncipe de Asturias de Cooperación Internacional en 2006. Si antes fue una figura discutida, esta nueva etapa como filántropo despierta más bien unánime admiración: al igual que lo fue su empresa, su fundación es la más grande del mundo por lo que respecta a la cuantía de sus aportaciones económicas a toda clase de programas de ayuda, investigación y desarrollo.

Capas de la tierra.

CAPAS DE LA TIERRA

GEOSFERA                                                            
La geosfera es la parte estructural de la Tierra que se extiende desde la superficie hasta el interior del planeta.
La geosfera tiene tres partes el manto , el núcleo y la corteza terrestre.



LA CORTEZA: Es la capa más externa. Es sólida y está formada por rocas. Está capa es muy fina en comparación con el tamaño de la Tierra.
EL MANTO: Su temperatura es muy elevada y algunas de sus rocas están fundidas. Recibe el nombre de magma.
EL NÚCLEO: Es la parte más interna y está formada por hierro. Su temperatura es más alta que la del manto. La parte externa del núcleo se encuentra en estado líquido y la interna se encuentra en estado sólido.



HIDROSFERA

La hidroesfera es el conjunto del agua del planeta , en cualquier de sus estados.
La mayor parte del agua liquida se encuentra en los mares, océanos y son de agua salada.
El agua  dulce se encuentra en continentes e islas. El agua dulce se encuentra en ríos , lagos o terrenos subterráneos
El agua se encuentra en las zonas más frias del planeta, especialmente, en regiones polares.
El vapor de agua se encuentra en la atmósfera y cuando se condesa, forma las nubes.


ATMÓSFERA
La atmósfera es la capa de aire de la Tierra más externa . La atmósfera está compuesta principalmente por nitrógeno ,oxígeno y  menos cantidad de otros gases. Hay varias capas de la atmósfera:



1. EXOSFERA 
Esta capa principalmente está compuesta por hidrógeno y helio. Es la ultima capa de la atmósfera terrestre.

2. TERMOSFERA 
En ella vuelan los transbordadores espaciales. Es la capa que conduce la electricidad. Tiene átomos que están cargados de electricidad llamados iones.

3. MESOSFERA 
Es la capa donde la temperatura baja conforme aumente la altitud .

4. ESTRATOSFERA 
Los gases que tiene están separados formando capas o estratos. Una capa de ellas es la capa de ozono que filtra los rayos ultravioletas del Sol.

5. TROPOSFERA 
Es la capa que más cerca está de la superficie terrestre, donde se desarrolla la vida y donde, la mayoria de veces, se producen fenómenos meteorológicos.


Tipos de antenas

LA INVENCIÓN DE LA ANTENA

Alexandr Stepánovich Popov es reconocido como el inventor de la antena. Estudió física y matemáticas en la universidad de San Petersburgo (Rusia) al momento de graduarse en 1885, comenzó su estudiar las teorías de otros investigadores como Hertz y Maxwell. 
Entre uno de sus logros más importantes se encuentra un dispositivo que tenía la peculiaridad de registrar y captar las perturbaciones eléctricas de la atmósfera. Lo cierto es que este dispositivo lo descubrió por casualidad y se trataba de algo parecido a una varilla conductora que se levantaba "en dirección al cielo", de manera que pudiera captar la energía de las tormentas. 
Estaba compuesta de manera que pudiera percibir las ondas electromagnéticas originadas artificialmente. Sin darse cuenta y de la forma rudimentaria "acaba de inventar la antena".

ANTENA ISOTRÓPICA 

La antena isotrópica es una antena hipotética sin pérdida (se refiere a que el área física es cero y por lo tanto no hay pérdidas por disipación de calor) que tiene intensidad de radiación igual en todas direcciones. Sirve de base de referencia para evaluar la directividad. La antena isotrópica no es una antena, sino un concepto de referencia para evaluar a las antenas en su función de concentración de energía y a las pérdidas por propagación en el espacio libre en los enlaces de radiofrecuencia. Su patrón de radiación es una esfera. Cada aplicación y cada banda de frecuencia presentan características peculiares que dan origen a unos tipos de antenas especiales muy diversas. 



ANTENAS DE HILO 

Las antenas de hilo están formadas por hilos conductores, eléctrica mente delgados, cuyo diámetros << λ. Se modelan como un conductor de sección infinitesimal. Pueden estar formadas por hilos rectos (dipolos, rombos), espirales (circular, cuadrada o cualquier forma arbitraria) y hélices. 
El tipo más común son las antenas de dipolo. Esta clase de antena es la más sencilla de todas. Suelen estar fabricados de aluminio o cobre.
En el centro del dipolo hay una tensión reducida y una intensidad elevada, mientras que en las puntas se produce una tensión muy elevada y una intensidad nula, y por tal motivo los dipolos pueden plegarse para darles mayor ganancia a la vez que mayor rigidez mecánica. En un dipolo real situado a una cierta distancia del suelo la impedancia varía considerablemente, pero este efecto no tiene mayor importancia si se puede aceptar una ROE (Razón de Onda Estacionaria) máxima en la línea de transmisión de 2:1. 


ANTENAS YAGI-UDA

Una aplicación práctica de este tipo de antenas, es el de las antenas tipo yagi-uda (directivas), ampliamente utilizadas, por ejemplo, para la recepción de señales de televisión en la banda de UHF, ya que poseen una gran directividad, tanto mayor cuanto mayor sea el número de elementos pasivos (parásitos) que incorpore y así su ganancia es la adecuada para recibir el nivel de señal suficiente para que pueda ser amplificado sin problemas.Su ganancia y directividad dependerá del número de elementos reflectores, cuantos más, mejor, y puede cubrir toda la gama de canales de UHF, desde el 21 al 69.  
La antena Yagi es pues una antena capaz de concentrar la mayor parte de la energía radiada de manera localizada, aumentando así la potencia emitida hacia el receptor o recibida desde la fuente y evitando interferencias introducidas por fuentes no deseadas.

ANTENA HELICOIDAL

Una antena helicoidal es un tipo de antena que presenta un comportamiento de banda ancha. Una hélice es el resultado de bobinar un hilo conductor sobre un cilindro de diámetro constante. Los parámetros geométricos de diseño de una hélice son su diámetro, la separación entre dos vueltas o paso de la hélice, el número de vueltas, el diámetro del hilo y el sentido del bobinado (a derechas o izquierdas).


ANTENA PERIÓDICA-LOGARÍTMICA

Una antena periódica-logarítmica como un grupo de antenas dipolos unidas y alimentadas a través de una línea de transmisión común. Es una antena multibanda y su respuesta en frecuencia es muy plana, lo que la hace muy interesante en aplicaciones donde el usuario utiliza sistemas en diferentes bandas (por ejemplo, aplicaciones celulares).  El diseño de una antena de este tipo consiste en una figura geométrica básica que se repite, pero con distintos tamaños. Pueden ser unidireccionales o bidireccionales, y tener una ganancia directiva de baja a moderada. También se pueden alcanzar altas ganancias usándolas como elementos de una red mas complicada. Tienen características de banda muy ancha y, por ende, se dice también que son independientes de la frecuencia. 


ANTENAS DE APERTURA 

En estas antenas, la onda radiada se consigue a partir de una distribución de campo soportada por la antena y se suelen excitar por guías de onda. Son antenas de apertura las bocinas (piramidales o cónicas), las aperturas sobre planos y ranuras sobre planos conductores y las guías de onda. En concreto, una bocina es una antena que se utiliza de forma generalizada a frecuencias de microondas, por sus características de gran ancho de banda y por su facilidad de construcción y diseño. Las bocinas se pueden utilizar como antena individual, en forma de agrupaciones, o como alimentador de reflectores o lentes. De acuerdo con la forma de la apertura, las bocinas pueden ser de dos tipos: piramidal y cónica. El empleo de reflectores (superficies planas, parabólicas, hiperbólicas, elípticas) permite optimizar las características de radiación.

ANTENAS PLANAS 

Las antenas planas (microstrip) están formadas por un agrupamiento plano de radiadores (parches) y un circuito que distribuye la señal entre ellos. Su diseño se adecua de forma que la estructura disipe la potencia en forma de radiación. Ambos, parches y circuito, se fabrican utilizando técnicas de fotograbado sobre un sustrato dieléctrico laminado en cobre por ambas superficies. Al ser una tecnología plana, facilita su integración con el resto del sistema, favoreciendo la reducción del tamaño y peso global. Presentan la desventaja de su estrecho ancho de banda, pero actualmente existen numerosos métodos para solventar este inconveniente. 


ANTENAS CON REFLECTOR (PARABÓLICAS) 

En este tipo de antenas la señal emitida/recibida no sale/entra directamente en/del elemento captador, sino que se emite/recoge por/en el mismo una vez reflejada en un elemento pasivo que concentra la señal. En el caso de una antena receptora, su funcionamiento se basa en la reflexión de las ondas electromagnéticas, por la cual las ondas que inciden paralelamente al eje principal se reflejan y van a parar a un punto denominado foco que está centrado en el paraboloide. 
Las antenas reflectoras parabólicas proporcionan una ganancia y una directividad extremadamente altas y son muy populares para las microondas y el enlace de comunicaciones por satélite. 
Una antena parabólica se compone de dos partes principales: 
Un reflector parabólico 
Elemento activo llamado mecanismo de alimentación

En esencia, el mecanismo de alimentación aloja la antena principal (por lo general un dipolo), que irradia ondas electromagnéticas hacia el reflector. El reflector es un dispositivo pasivo que solo refleja la energía irradiada por el mecanismo de alimentación en una emisión concentrada altamente direccional donde las ondas individuales están todas en fase entre sí (frente de ondas en fase).


FOCO PRIMARIO

La superficie de la antena es un paraboloide de revolución, todas las ondas inciden paralelamente al eje principal, se reflejan, y van a parar al Foco. El Foco está centrado en el paraboloide. Tiene un rendimiento máximo del 60% aproximadamente, es decir, de toda la energía que llega a la superficie de la antena, el 60% llega al foco y se aprovecha; el resto no llega al foco y se pierde. Se suelen ver de tamaño grande, aproximadamente de 1,5 m de diámetro. 
OFFSET 

Una antena offset está formada por una sección de un reflector paraboloide de forma oval. La superficie de la antena ya no es redonda, sino oval y simétrica (elipse). El punto focal no está montado en el centro del plato, sino desplazado a un lado del mismo (offset), de tal forma que el foco queda fuera de la superficie de la antena. La ventaja de esta tecnología es que la superficie de la antena ya no estará sombreada por el LNB (Low Noise Block), desde el punto de vista del satélite, y así se recibe algo más de señal.
CASSEGRAIN 

Se caracteriza por llevar un segundo reflector cerca de su foco, el cual refleja la onda radiada desde el dispositivo radiante hacia el reflector en las antenas transmisoras, o refleja la onda recibida desde el reflector hacia el dispositivo detector en las antenas receptoras. 
Este tipo de antenas presentan una gran directividad, una elevada potencia en el transmisor y un receptor de bajo ruido. Utilizar una gran antena reflectora implica grandes distancias del transmisor al foco (y la imposibilidad de colocar equipos en él) por lo que una solución es emplear un segundo reflector o subreflector.

ARRAYS 

Una antena de arreglo de fase (array) es un grupo de antenas que, cuando se conectan, funcionan como una sola antena cuyo ancho de haz y dirección (o sea, patrón de radiación) puede cambiarse electrónicamente sin tener que mover físicamente ninguna de las antenas individuales. La ventaja principal de este tipo de antenas es que eliminan la necesidad de mover en forma mecánica los elementos de la misma. Una aplicación típica es en radares, donde los patrones de radiación deben ser capaces de cambiar rápidamente para seguir un objeto en movimiento y, últimamente, también en las comunicaciones móviles de 3G y 4G. 
Se puede controlar –ajusta o cambiar– electrónicamente la amplitud de las corrientes y la fase de cada antena individual, modificando la forma del diagrama de radiación. Además, se puede conseguir que los parámetros de la antena dependan de la señal recibida a través de circuitos asociados a los elementos radiantes, como es el caso de las agrupaciones adaptativas.
Hay diferentes tipos: los lineales tienen los elementos dispuestos sobre una línea, mientras que los planos son agrupaciones bidimensionales cuyos elementos están sobre un plano. 

ANTENAS INTELIGENTES 

Las últimas tendencias en comunicaciones móviles, principalmente con la introducción de la 3G y 4G, sobre todo en Europa, apuntan a la utilización de un nuevo tipo de antenas para mejorar la capacidad y la calidad de los servicios de telecomunicaciones, así como para ofrecer un mayor número de servicios inalámbricos. Todo ello será posible gracias a las antenas inteligentes (smart antenas), que consiguen aumentar la capacidad de conexión a múltiples usuarios simultáneamente con una serie de ventajas que se expondrán a continuación. En esencia, el sistema funciona de tal forma que cuando el usuario se desplaza, o lo hace la señal interferente, se modifica la dirección del lóbulo principal para que se mueva con él y/o se minimice la interferencia y, en el caso en que una estación de radio atienda a varios usuarios simultáneamente, los sistemas permiten transmitir el haz desglosado en varios lóbulos muy directivos, de forma que se reduce la interferencia en la red considerablemente y se incrementa la capacidad en ambos sentidos. 



BIBLIOGRAFÍA

http://www.acta.es/medios/articulos/ciencias_y_tecnologia/020001.pdf