Historia de la electricidad parte 2

JUANROMERO
Avanzado
Mensajes: 343
Registrado: Dom Jun 02, 2019 5:56 pm

Historia de la electricidad parte 2

Mensaje por JUANROMERO » Lun Jun 10, 2019 7:34 pm

El ingeniero y físico italiano Guglielmo Marconi (1874-1937), es conocido, principalmente, como el inventor del primer sistema práctico de señales telegráficas sin hilos, que dio origen a la radio actual. En 1899 logró establecer comunicación telegráfica sin hilos a través del canal de la Mancha entre Inglaterra y Francia, y en 1903 a través del océano Atlántico entre Cornualles, y Saint John's en Terranova, Canadá. En 1903 estableció en los Estados Unidos la estación WCC, en cuya inauguración cruzaron mensajes de salutación el presidente Theodore Roosevelt y el rey Eduardo VIII de Inglaterra. En 1904 llegó a un acuerdo con el Servicio de Correos británico para la transmisión comercial de mensajes por radio. Las marinas italiana y británica pronto adoptaron su sistema y hacia 1907 había alcanzado tal perfeccionamiento que se estableció un servicio trasatlántico de telegrafía sin hilos para uso público. Para la telegrafía fue un gran impulso el poder usar el código Morse sin necesidad de cables conductores.

Aunque se le atribuyó la invención de la radio, esta fue posible gracias a una de las patentes de Nikola Tesla, tal y como fue reconocido por la alta corte de los Estados Unidos, seis meses después de la muerte de Tesla, hacia el año 1943. También inventó la antena Marconi. En 1909 Marconi recibió, junto con el físico alemán Karl Ferdinand Braun, el Premio Nobel de Física por su trabajo.104​
Véase también: Guglielmo Marconi
Hewitt: la lámpara de vapor de mercurio (1901-1912)
Peter Cooper Hewitt y su lámpara de vapor de mercurio (1903)
Artículo principal: Lámpara de vapor de mercurio

El ingeniero eléctrico e inventor estadounidense Peter Cooper Hewitt (1861-1921) se hizo célebre por la introducción de la lámpara de vapor de mercurio, uno de los más importantes avances en iluminación eléctrica. En la década de 1890 trabajó sobre las experimentaciones realizadas por los alemanes Julius Plücker y Heinrich Geissler sobre el fenómeno fluorescente, es decir, las radiaciones visibles producidas por una corriente eléctrica que pasa a través de un tubo de cristal relleno de gas. Los esfuerzos de Hewitt se encaminaron a hallar el gas que resultase más apropiado para la producción de luz, y lo encontró en el mercurio. La luz obtenida, por este método, no era apta para uso doméstico, pero encontró aplicación en otros campos de la industria, como en medicina, en la esterilización de agua potable y en el revelado de películas. En 1901 inventó el primer modelo de lámpara de mercurio (aunque no registró la patente hasta 1912). En 1903 fabricó un modelo mejorado que emitía una luz de mejor calidad y que encontró mayor utilidad en el mercado. El desarrollo de las lámparas incandescentes de filamento de tungsteno, a partir de la década de 1910, supuso una dura competencia para la lámpara de Hewitt, ya que, a pesar de ser ocho veces menos eficientes que esta, poseían una luminosidad mucho más atractiva.105​
Véanse también: Peter Cooper Hewitt y Temperatura de color.
Honold: el magneto de alta tensión, la bujía (1902) y los faros parabólicos (1913)
Gottlob Honold y bujías habituales en 1911
Artículos principales: Imán (física) y Bujía.

El ingeniero alemán Gottlob Honold (1876-1923), que trabajaba en la empresa Robert Bosch, fue el primero que fabricó una bujía económicamente viable que, conectada a una magneto de alta tensión, hizo posible el desarrollo de los motores de combustión interna de ciclo Otto con velocidades de giro de varios miles de revoluciones por minuto y elevadas potencias específicas. Una bujía es el elemento donde se produce una chispa provocando el encendido de la mezcla de combustible y aire en los cilindros de un motor de ciclo Otto. Las primeras patentes para la bujía datan de Nikola Tesla (Patente USPTO nº 609,250 en la que se diseña un sistema temporizado de ignición repetida, en el año 1898), casi al mismo tiempo que Frederik Richard Simms (GB 24859/1898, 1898) y Robert Bosch (GB 26907/1898). Karl Benz también inventó su propia versión de bujía. Sin embargo, la bujía de Honold de 1902 era comercialmente viable, de alta tensión y podía realizar un mayor número de chispas por minuto, razón por la que fue adoptada por Daimler. La bujía tiene dos funciones primarias: producir la ignición de la mezcla de aire y combustible y disipar parte del calor de la cámara de combustión hacia el bloque motor por conducción térmica. Las bujías se clasifican por lo que se conoce como rango térmico en función de su conductancia térmica. Las bujías transmiten energía eléctrica que convierten al combustible en un sistema que libera energía. Una cantidad suficiente de voltaje se debe de proveer al sistema de ignición para que pueda generar la chispa a través de la calibración de la bujía.106​

En 1913, Honold participó en el desarrollo de los faros parabólicos. Aunque se habían utilizado anteriormente algunos sistemas de alumbrado para la conducción nocturna, los primeros faros apenas alumbraban y servían poco más que como sistema de señalización. Honold concibió la idea de colocar espejos parabólicos detrás de las lámparas para concentrar el haz luminoso, lo que mejoraba la iluminación del camino sin necesidad de usar un sistema eléctrico más potente.
Véase también: Gottlob Honold
Los cambios de paradigma del siglo XX

El efecto fotoeléctrico ya había sido descubierto y descrito por Heinrich Hertz en 1887. No obstante, carecía de explicación teórica y parecía ser incompatible con las concepciones de la física clásica. Esa explicación teórica solo fue posible con la obra de Albert Einstein (entre los famosos artículos de 1905) quien basó su formulación de la fotoelectricidad en una extensión del trabajo sobre los cuantos de Max Planck. Más tarde Robert Andrews Millikan pasó diez años experimentando para demostrar que la teoría de Einstein no era correcta pero terminó demostrando que sí lo era. Eso permitió que tanto Einstein como Millikan recibiesen el premio Nobel en 1921 y 1923 respectivamente.

En 1893 Wilhelm Weber logró combinar la formulación de Maxwell con las leyes de la termodinámica para tratar de explicar la emisividad del llamado cuerpo negro, un modelo de estudio de la radiación electromagnética que tendrá importantes aplicaciones en astronomía y cosmología.

En 1911 se prueba experimentalmente el modelo atómico de Ernest Rutherford (núcleo con masa y carga positiva y corona de carga negativa), aunque tal configuración había sido predicha en 1904 por el japonés Hantarō Nagaoka, cuya contribución había pasado desapercibida.107​

La llamada Gran Ciencia ligada a la investigación atómica necesitó superar retos tecnológicos cuantitativamente impresionantes, pues era necesario hacer chocar partículas con el núcleo atómico con cada vez mayor energía. Esta fue una de las primeras carreras tecnológicas del siglo XX y que, independientemente del origen nacional de las ideas o procesos puestos en práctica (muchos de ellos europeos: alemanes, austrohúngaros, italianos, franceses , belgas o británicos), fueron ganadas por el eficaz e inquietante complejo científico-técnico-productivo-militar de los Estados Unidos. En 1928 Merle Tuve utilizó un transformador Tesla para alcanzar los tres millones de voltios. En 1932 John Cockcroft y Ernest Walton observaron la desintegración de átomos de litio con un multiplicador voltaico que alcanzaba los 125 000 voltios. En 1937 Robert van de Graaff construyó generadores de cinco metros de altura para generar corrientes de 5 millones de voltios. Ernest Lawrence, inspirado por el noruego Rolf Wideröe, construyó entre 1932 y 1940 sucesivos y cada vez mayores ciclotrones, confinadores magnéticos circulares, para averiguar la estructura de las partículas elementales a base de someterlas a choques a enormes velocidades.108​

Los quarks (bautizados así en 1963 y descubiertos sucesivamente en los años 1970 y hasta fechas tan próximas como 1996), así como las particularidades de su carga eléctrica aún son una incógnita de la física de hoy en día.

La industria eléctrica crece con la sociedad de consumo de masas y pasa a la fase del capitalismo monopolista de las grandes corporaciones multinacionales de tipo holding, como las norteamericanas General Electric (derivada de la compañía de Edison) y Westinghouse Electric (derivada de la de Westinghouse y Tesla), la Marconi Company (más puramente multinacional que italiana), las alemanas AEG, Telefunken, Siemens AG y Braun (esta última, más tardía, debe su nombre a Max Braun, no al físico Carl Ferdinand Braun) o las japonesas Mitsubishi, Matsushita (Panasonic) Sanyo o Sony (estas últimas posteriores a la segunda guerra mundial). Incluso en países pequeños, pero desarrollados, el sector eléctrico y la electrónica de consumo tuvo presencia temprana y destacada en los procesos de concentración industrial, como son los casos de la holandesa Philips y la finlandesa Nokia.
Lorentz: las transformaciones de Lorentz (1900) y el efecto Zeeman (1902)
Hendrik Antoon Lorentz y el efecto Zeeman transversal, descubierto por su asistente Pieter Zeeman
Artículo principal: Efecto Zeeman

El físico holandés Hendrik Antoon Lorentz (1853-1928) realizó un gran número de investigaciones en los campos de la termodinámica, la radiación, el magnetismo, la electricidad y la refracción de la luz, entre las que destaca el estudio de la expresión de las ecuaciones de Maxwell en sistemas inerciales y sus consecuencias sobre la propagación de las ondas electromagnéticas. Formuló, conjuntamente con George Francis FitzGerald, una explicación del experimento de Michelson y Morley sobre la constancia de la velocidad de la luz, atribuyéndola a la contracción de los cuerpos en la dirección de su movimiento. Este efecto, conocido como contracción de Lorentz-FitzGerald, sería luego expresado como las transformaciones de Lorentz, las que dejan invariantes las ecuaciones de Maxwell, posterior base del desarrollo de la teoría de la relatividad. Nombró a Pieter Zeeman su asistente personal, estimulándolo a investigar el efecto de los campos magnéticos sobre las transiciones de spin, lo que lo llevó a descubrir lo que hoy en día se conoce con el nombre de efecto Zeeman, base de la tomografía por resonancia magnética nuclear. Por este descubrimiento y su explicación, Lorentz compartió en 1902 el Premio Nobel de Física con Pieter Zeeman109​
Véase también: Hendrik Antoon Lorentz
Einstein: El efecto fotoeléctrico (1905)
Albert Einstein y diagrama ilustrando la emisión de los electrones de una placa metálica, requiriendo de la energía que es absorbida de un fotón.
Artículo principal: Efecto fotoeléctrico

Al alemán nacionalizado norteamericano Albert Einstein (1879-1955) se le considera el científico más conocido e importante del siglo XX. El resultado de sus investigaciones sobre la electricidad llegó en 1905 (fecha trascendental que se conmemoró en el Año mundial de la física 2005), cuando escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala. En ellos explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba la relatividad especial y la equivalencia entre masa y energía.

El efecto fotoeléctrico consiste en la emisión de electrones por un material cuando se le ilumina con radiación electromagnética (luz visible o ultravioleta, en general). Ya había sido descubierto y descrito por Heinrich Hertz en 1887, pero la explicación teórica no llegó hasta que Albert Einstein le aplicó una extensión del trabajo sobre los cuantos de Max Planck. En el artículo dedicado a explicar el efecto fotoeléctrico, Einstein exponía un punto de vista heurístico sobre la producción y transformación de luz, donde proponía la idea de quanto de radiación (ahora llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar el efecto fotoeléctrico. Una explicación completa del efecto fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más avanzada. A Albert Einstein se le concedió el Premio Nobel de Física en 1921.110​

El efecto fotoeléctrico es la base de la producción de energía eléctrica por radiación solar y de su aprovechamiento energético. Se aplica también para la fabricación de células utilizadas en los detectores de llama de las calderas de las grandes usinas termoeléctricas. También se utiliza en diodos fotosensibles tales como los que se utilizan en las células fotovoltaicas y en electroscopios o electrómetros. En la actualidad (2008) los materiales fotosensibles más utilizados son, aparte de los derivados del cobre (ahora en menor uso), el silicio, que produce corrientes eléctricas mayores.
Véase también: Albert Einstein
Millikan: El experimento de Millikan (1909)
Robert Andrews Millikan y su instalación para el experimento de la gota de aceite
Artículo principal: Experimento de Millikan

El físico estadounidense Robert Andrews Millikan (1868-1953) es conocido principalmente por haber medido la carga del electrón, ya descubierta por J. J. Thomson. Estudió en un principio la radioactividad de los minerales de uranio y la descarga en los gases. Luego realizó investigaciones sobre radiaciones ultravioletas.

Mediante su experimento de la gota de aceite, también conocido como experimento de Millikan, determinó la carga del electrón: 1,602 × 10-19 coulomb. La carga del electrón es la unidad básica de cantidad de electricidad y se considera la carga elemental porque todos los cuerpos cargados contienen un múltiplo entero de la misma. El electrón y el protón tienen la misma carga absoluta, pero de signos opuestos. Convencionalmente, la carga del protón se considera positiva y la del electrón negativa. Entre sus otras aportaciones a la ciencia destacan su importante investigación sobre los rayos cósmicos, como él los denominó, y sobre los rayos X, así como la determinación experimental de la constante de Planck, midiendo la frecuencia de la luz y la energía de los electrones liberados en el efecto fotoeléctrico. En 1923 fue galardonado con el Premio Nobel de Física por sus trabajos para determinar el valor de carga del electrón y el efecto fotoeléctrico.111​
Véase también: Robert Andrews Millikan
Onnes: Superconductividad (1911)
Heike Kamerlingh Onnes y el licuefactor de helio utilizado durante el descubrimiento de la superconductividad en mercurio
Artículo principal: Superconductividad

El físico holandés Heike Kamerlingh Onnes (1853-1926) se dedicó principalmente al estudio de la física a bajas temperaturas, realizando importantes descubrimientos en el campo de la superconductividad eléctrica, fenómeno que sucede cuando algunos materiales están a temperaturas cercanas al cero absoluto. Ya en el siglo XIX se llevaron a cabo diversos experimentos para medir la resistencia eléctrica a bajas temperaturas, siendo James Dewar el primer pionero en este campo. Sin embargo, la superconductividad como tal no se descubriría hasta 1911, año en que Onnes observó que la resistencia eléctrica del mercurio desaparecía bruscamente al enfriarse a 4K (-269 °C), cuando lo que se esperaba era que disminuyera gradualmente. En 1913 fue galardonado con el Premio Nobel de Física por, en palabras del comité, "sus investigaciones en las características de la materia a bajas temperaturas que permitieron la producción del helio líquido".112​
Véase también: Heike Kamerlingh Onnes
Zworykin: la televisión (1923)
Vladimir Zworykin y el diseño de su patente del iconoscopio
Artículos principales: Televisión e Historia de la televisión.

El ingeniero ruso Vladimir Zworykin (1889-1982) dedicó su vida al desarrollo de la televisión, la electrónica y la óptica. Desde muy joven estaba persuadido de que la solución práctica de la televisión no sería aportada por un sistema mecánico, sino por la puesta a punto de un procedimiento que utilizara los tubos de rayos catódicos. Emigró a Estados Unidos y empezó a trabajar en los laboratorios de la Westinghouse Electric and Manufacturing Company, en Pittsburg. En la Westinghouse tuvo libertad para continuar con sus proyectos personales, es decir, sus trabajos sobre la televisión, especialmente sobre el iconoscopio (1923), un dispositivo que convertía imágenes ópticas en señales eléctricas. Otro de sus inventos, que posibilitó una televisión enteramente electrónica, fue el kinescopio que transformaba las señales eléctricas del iconoscopio en imágenes visibles, aunque de baja resolución. Los trabajos de investigación de Zworykin y de su grupo de colaboradores no se limitaron sólo a la televisión, abarcaron muchos otros aspectos de la electrónica, sobre todo los relacionados con la óptica. Su actividad en este campo permitió el desarrollo de dispositivos tan importantes como los tubos de imágenes y multiplicadores secundarios de emisión de distintos tipos. Un gran número de aparatos electrónicos militares utilizados en la segunda guerra mundial son resultado directo de las investigaciones de Zworykin y de sus colaboradores, quien también participó en la invención del microscopio electrónico.113​
Véase también: Vladimir Zworykin
Howard Armstrong: frecuencia modulada (FM) (1935)
Edwin Howard Armstrong y su mujer con un una radio portátil superheterodino construida como regalo para ella
Artículo principal: Frecuencia modulada

El ingeniero eléctrico estadounidense Edwin Howard Armstrong (1890-1954) fue uno de los inventores más prolíficos de la era de la radio, al desarrollar una serie de circuitos y sistemas fundamentales para el avance de este sistema de comunicaciones. En 1912 desarrolló el circuito regenerativo, que permitía la amplificación de las débiles señales de radio con poca distorsión, mejorando mucho la eficiencia de los circuitos empleados hasta el momento. En 1918 desarrolló el circuito superheterodino, que dio un gran impulso a los receptores de amplitud modulada (AM). En 1920 desarrolló el circuito super-regenerador, muy importante en las comunicaciones con dos canales. En 1935 desarrolló el sistema de radiodifusión de frecuencia modulada (FM) que, además de mejorar la calidad de sonido, disminuyó el efecto de las interferencias externas sobre las emisiones de radio, haciéndolo muy inferior al del sistema de amplitud modulada (AM). El sistema de frecuencia modulada (FM), que es hoy el más empleado en radio y televisión, no se empezó a emplear comercialmente hasta después de su muerte. Muchas invenciones de Armstrong fueron reclamadas por otros en pleitos de patente.114​
Véase también: Edwin Howard Armstrong
Watson-Watt: el radar (1935)
Robert Watson-Watt y la primera unidad de radar operativa construida por él y su equipo
Artículo principal: Radar

El radar (acrónimo de radio detection and ranging, detección y medición de distancias por radio) fue creado en 1935 y desarrollado principalmente en Inglaterra durante la Segunda Guerra Mundial. Su mayor impulsor fue el físico Robert Watson-Watt (1892-1973), director del Laboratorio de Investigación de Radio. Ya en 1932, la Oficina Postal Británica publicó un informe en el que sus científicos documentaron fenómenos naturales que afectaban la intensidad de la señal electromagnética recibida: tormentas eléctricas, vientos, lluvia y el paso de un aeroplano en la vecindad del laboratorio. Arnold Wilkins (1907-1985), físico ayudante de Watson-Watts, conoció este informe de manera accidental, conversando con la gente de la Oficina Postal, que se quejaba por la interferencia. Cuando Wilkins sugirió la posibilidad de utilizar el fenómeno de interferencia de ondas de radio para detectar aviones enemigos, Watson-Watt lo comisionó inmediatamente para trabajar en el cálculo de los aspectos cuantitativos.

El radar dio a la aviación británica una notable ventaja táctica sobre la alemana durante la batalla de Inglaterra, cuando aún era denominado RDF (Radio Direction Finding). En la actualidad es una de las principales ayudas a la navegación con que cuenta el control de tráfico aéreo de todo tipo, militar y civil.115​
Véase también: Robert Watson-Watt
La segunda mitad del siglo XX: Era espacial o Edad de la electricidad
Artículo principal: Era espacial

Después de la segunda guerra mundial, el mundo bipolar enfrentado a la guerra fría entre los Estados Unidos y la Unión Soviética presenció la frenética carrera de armamentos y la carrera espacial que impulsó de modo extraordinario la competencia científica y tecnológica entre ambos países- En la sociedad de consumo capitalista, orientada al mercado, algunos de estos logros encontraron aplicación a la vida cotidiana como retorno tecnológico de lo invertido en las áreas de investigación puntera; caso de algunos rubros de la industria ligera y los servicios (terciarización), mientras que en el bloque soviético la planificación estatal privilegiaba la industria pesada. La reconstrucción de Europa Occidental y Japón permitió que en ambos espacios se pudiera continuar a la vanguardia de la ciencia y la tecnología, además de contribuir con la fuga de cerebros a los espacios centrales.

Al científico y el inventor individual, ahora reemplazados en prestigio por el empresario schumpeteriano, le sucedieron los equipos científicos vinculados a instituciones públicas o privadas, cada vez más interconectadas y retroalimentadas en lo que se denomina investigación y desarrollo (I+D) o incluso I+D+I (investigación, desarrollo e innovación). Los programas de investigación se han hecho tan costosos, con tantas implicaciones y a tan largo plazo que las decisiones que les afectan han de ser tomadas por instancias políticas y empresariales de alto nivel, y su publicidad o su mantenimiento en secreto (con fines estratégicos o económicos) constituyen un problema serio de control social (con principios democráticos o sin ellos).

La segunda mitad del siglo XX se caracterizó, entre otras cosas, por la denominada Revolución científico-técnica de la tercera revolución industrial, con avances de las tecnologías (especialmente la electrónica y la medicina) y las ciencias, que ha dado lugar al desarrollo de una numerosísima serie de inventos -dependientes de la electricidad y la electrónica en su diseño y funcionamiento- que transformaron la vida social, primero en las clases medias de los países desarrollados, y posteriormente en todo el mundo con el proceso de globalización. El desarrollo de las telecomunicaciones e internet permite hablar de una sociedad de la información en la que, en los países industrialmente más desarrollados las decisiones económicas (como consumir, producir y distribuir), sociales (como el establecimiento de todo tipo de relaciones personales, redes sociales y redes ciudadanas) y políticas (como informarse y opinar, aunque la democracia electrónica sólo está esbozada) se transmiten instantáneamente, lo que permitió a Marshall McLuhan hablar de la Edad de la Electricidad.

La automatización (en estadios más avanzados la robótica, que aún no se ha desarrollado plenamente) transformó radicalmente los procesos de trabajo industrial. Es posible hablar ya no de una sociedad industrial opuesta a la sociedad preindustrial, sino incluso una sociedad postindustrial basada en parámetros completamente nuevos. Entre los inventos que han contribuido a la base material de esa nueva forma de vida caben destacar: electrodomésticos, electrónica digital, ordenadores, robótica, satélites artificiales de comunicación, energía nuclear, trenes eléctricos, refrigeración y congelación de alimentos, electromedicina, etc.
Ordenadores
Artículo principal: Historia de la informática
Véase también: Microprocesador
ENIAC

1941 La primera computadora electrónica funcional de que se tiene noticia fue la alemana Z3 de Konrad Zuse, construida en 1941 y destruida en los bombardeos aliados de 1943. La utilización comercial de este tipo de aparatos, que revolucionaron la gestión de la información y toda la vida social, económica y científica, tuvo que esperar a los años cincuenta, tras su desarrollo en Estados Unidos.

La británica Colossus (diseñada por Tommy Flowers en la Estación de Investigación de la Oficina Postal) y la estadounidense Harvard Mark I (construida por Howard H. Aiken en la Universidad de Harvard con subvención de IBM entre 1939 y 1943), llegaron a tiempo de usarse en la fase final de la Segunda Guerra Mundial; la primera en el descifrado de mensajes alemanes y la segunda para el cálculo de tablas de balística.

Inmediatamente después de la guerra, el Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico, ENIAC)116​ utilizado por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos fue construido en 1946 en la Universidad de Pensilvania por John Presper Eckert y John William Mauchly. Consumía una potencia eléctrica suficiente para abastecer una pequeña ciudad, ocupaba una superficie de 167 m² y operaba con un total de 17 468 válvulas electrónicas o tubos de vacío, 7200 diodos de cristal, 1500 relés, 70 000 resistencias, 10 000 condensadores y 5 millones de soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m; utilizaba 1500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6000 interruptores, y su programa o software, cuando requería modificaciones, tardaba semanas de instalación manual. La ENIAC podía resolver 5000 sumas y 360 multiplicaciones en un segundo. Se desactivó en 1955.

Le sustituyó en la misma institución la Electronic Discrete Variable Automatic Computer (EDVAC),117​ en 1949. A diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado. Este diseño se convirtió en el estándar de arquitectura para la mayoría de las computadoras modernas y un hito en la historia de la informática. A los diseñadores anteriores se les había unido el gran matemático John von Neumann. La EDVAC recibió varias actualizaciones, incluyendo un dispositivo de entrada/salida de tarjetas perforadas en 1953, memoria adicional en un tambor magnético en 1954 y una unidad de aritmética de punto flotante en 1958. Dejó de estar en activo en 1961.

La UNIVAC I (UNIVersal Automatic Computer I, computadora automática universal I), también debida a J. Presper Eckert y John William Mauchly, fue la primera computadora comercial y la primera diseñada desde el principio para su uso en administración y negocios. El primer UNIVAC fue entregado a la Oficina de Censos de los Estados Unidos (United States Census Bureau) en 1951 y fue puesto en servicio ese mismo año. Competía directamente con las máquinas de tarjeta perforada hechas principalmente por IBM. Para facilitar la compatibilidad de ambos tipos de máquina se construyó un equipo de procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a cinta y el convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las tarjetas y las cintas magnéticas que empleaba alternativamente.

IBM anunció en 1953 la primera producción a gran escala de una computadora, el IBM 650: 2000 unidades desde 1954 hasta 1962. Era un diseño orientado hacia los usuarios de máquinas contables anteriores, como las tabuladoras electromecánicas (con tarjetas perforadas) o el modelo IBM 604. Pesaba alrededor de 900 kg, y su unidad de alimentación unos 1350. Cada unidad estaba en un armario separado, de 1,5 x 0,9 x 1,8 metros. Costaba 500 000 dólares, pero podía alquilarse por 3500 al mes.

La tercera generación de este tipo de máquinas se inició con IBM 360, la primera en la historia en ser atacada con un virus informático. Comercializada a partir de 1964, fue la primera que usaba el término byte para referirse a 8 bits (con cuatro bytes creaba una palabra de 32-bits). Su arquitectura de computación fue la que a partir de este modelo siguieron todos los ordenadores de IBM. El sistema también hizo popular la computación remota, con terminales conectadas a un servidor, por medio de una línea telefónica. Fue una de las primeras computadoras comerciales que usó circuitos integrados, y podía realizar tanto análisis numéricos como administración o procesamiento de archivos.

El Intel 4004 (i4004, primero de Intel), un CPU de 4 bits, fue lanzado en un paquete de 16 pines CERDIP en 1971, siendo el primer microprocesador en un simple chip, así como el primero disponible comercialmente. Daría paso a la construcción de los ordenadores personales. El circuito 4004 fue construido con 2300 transistores, y fue seguido el año siguiente por el primer microprocesador de 8 bits, el 8008, que contenía 3300 transistores, y el 4040, versión revisada del 4004. El CPU que comenzó la revolución del microcomputador, sería el 8080, usado en el Altair 880. El microprocesador es un circuito integrado que contiene todos los elementos necesarios para conformar una "unidad central de procesamiento" (UCP o CPU: Central Process Unit). En la actualidad este tipo de componente electrónico se compone de millones de transistores, integrados en una misma placa de silicio.
Transistor, Electrónica digital y Superconductividad
Artículos principales: Transistor, Circuito integrado y Superconductividad.
Detalle de un circuito integrado

1948 La electrónica, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente, comenzó con el diodo de vacío inventado por John Ambrose Fleming en 1904, dispositivo basado en el efecto Edison. Con el tiempo las válvulas de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos y miniaturizándose. El paso esencial lo dio el físico estadounidense Walter Houser Brattain (1902-1987), incorporado en 1929 a los laboratorios Bell, donde fue partícipe junto con John Bardeen (1908-1991) -incorporado en 1945- y William Bradford Shockley del invento de un pequeño dispositivo electrónico semiconductor que cumplía funciones de amplificador, oscilador, conmutador o rectificador: el transistor. La palabra elegida para denominarlo es la contracción en inglés de transfer resistor ("resistencia de transferencia"). Sustituto de la válvula termoiónica de tres electrodos o triodo, el primer transistor de puntas de contacto funcionó en diciembre de 1947; se anunció por primera vez en 1948 pero no se terminó de fabricar hasta 1952, tras lograr construir un dispositivo con germanio el 4 de julio de 1951, culminando así su desarrollo. El transistor de unión bipolar apareció algo más tarde, en 1949, y es el dispositivo utilizado actualmente para la mayoría de las aplicaciones electrónicas. Sus ventajas respecto a las válvulas son entre otras menor tamaño y fragilidad, mayor rendimiento energético, menores tensiones de alimentación y consumo de energía. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio), razón por la que no necesitan centenares de voltios de tensión para funcionar.

El transistor ha contribuido, como ninguna otra invención, al gran desarrollo actual de la electrónica y la informática, empleándose comercialmente en todo tipo de aparatos electrónicos, tanto domésticos como industriales. La primera aplicación de estos dispositivos se hizo en los audífonos. Por su trabajo con los semiconductores y por el descubrimiento del transistor, Walter Houser Brattain compartió con Shockley y Bardeen en 1956 el Premio Nóbel de Física.118​

La construcción de circuitos electrónicos permitió resolver muchos problemas prácticos (control, procesado y distribución de información, conversión y distribución de la energía eléctrica, etc.). En 1958 se desarrolló el primer circuito integrado, que integraba seis transistores en un único chip, y en 1970 se desarrolló el primer microprocesador (Intel 4004).

En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias ciencias especializadas, partiendo de la distinción entre electrónica analógica y electrónica digital; y en los campos de la ingeniería electrónica, la electromecánica, la informática (diseño de software para su control), la electrónica de control, las telecomunicaciones y la electrónica de potencia.119​

En 1951 Bardeen, uno de los diseñadores del transistor, ingresó en la Universidad de Illinois, nombrando asistente personal al físico Nick Holonyak, el cual posteriormente diseñaría el primer Diodo LED en 1962. Trabajó junto a Leon N. Cooper y John Robert Schrieffer para crear la teoría estándar de la superconductividad, es decir, la desaparición de la resistencia eléctrica en ciertos metales y aleaciones a temperaturas cercanas al cero absoluto. Por estos trabajos compartió nuevamente, en 1972, el Premio Nobel de Física con los físicos estadounidenses Leon N. Cooper y John R. Schrieffer. Esto hizo que él fuera el primer científico que ganó dos premios Nobel en la misma disciplina.120​ Las aplicaciones de la superconductividad están todavía en las primeras fases de su desarrollo, pero ya han permitido los electroimanes más poderosos (que se usan en los trenes maglev, resonancia magnética nuclear y aceleradores de partículas); circuitos digitales y filtros de radiofrecuencia y microondas para estaciones base de telefonía móvil; o los magnetómetros más sensibles (uniones Josephson, de los SQUIDs -dispositivos superconductores de interferencia cuántica-).
El reto de la generación de electricidad
Centrales nucleares
Torres de refrigeración de la central nuclear de Cofrentes, España
Artículo principal: Energía nuclear

1951 Una central nuclear es una instalación industrial empleada para la generación de energía eléctrica a partir de energía nuclear, que se caracteriza por el empleo de materiales fisionables que mediante reacciones nucleares proporcionan calor. Este calor es empleado por un ciclo termodinámico convencional para mover un alternador y producir energía eléctrica. Las centrales nucleares constan de uno o varios reactores.

Se llama energía nuclear a aquella que se obtiene al aprovechar las reacciones nucleares espontáneas o provocadas por el hombre. Estas reacciones se dan en algunos isótopos de ciertos elementos químicos, siendo el más conocido de este tipo de energía la fisión del uranio-235 (235U), con la que funcionan los reactores nucleares. Sin embargo, para producir este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de varios elementos químicos, como el torio, el plutonio, el estroncio o el polonio. Los dos sistemas con los que puede obtenerse energía nuclear de forma masiva son la fisión nuclear y la fusión nuclear.

El 2 de diciembre de 1942, como parte del proyecto Manhattan dirigido por J. Robert Oppenheimer, se construyó el Chicago Pile-1 (CP-1), primer reactor nuclear hecho por el hombre (existió un reactor natural en Oklo). El Departamento de Defensa de los Estados Unidos propuso el diseño y construcción de un reactor nuclear utilizable para la generación eléctrica y propulsión en los submarinos a dos empresas distintas norteamericanas: General Electric y Westinghouse. Estas empresas desarrollaron los reactores de agua ligera tipo BWR y PWR respectivamente. Los mismos diseños de reactores de fisión se trasladaron a diseños comerciales para la generación de electricidad. Los únicos cambios producidos en el diseño con el transcurso del tiempo fueron un aumento de las medidas de seguridad, una mayor eficiencia termodinámica, un aumento de potencia y el uso de las nuevas tecnologías que fueron apareciendo.

El 20 de diciembre de 1951 fue el primer día que se consiguió generar electricidad con un reactor nuclear (en el reactor americano EBR-I, con una potencia de unos 100 kW), pero no fue hasta 1954 cuando se conectó a la red eléctrica una central nuclear (fue la central nuclear rusa de Obninsk, generando 5 MW con solo un 17 % de rendimiento térmico). La primera central nuclear con un rendimiento comercial fue la británica de Calder Hall, en Sellafield, abierta en 1956 con una capacidad de 50 MW (ampliada posteriormente a 200 MW).121​ El desarrollo de la energía nuclear en todo el mundo experimentó a partir de ese momento un gran crecimiento, de forma muy particular en Francia y Japón, donde la crisis del petróleo de 1973 influyó definitivamente, ya que su dependencia en el petróleo para la generación eléctrica era muy marcada. En 1986 el accidente de Chernóbil, en un reactor RBMK de diseño ruso que no cumplía los requisitos de seguridad que se exigían en occidente, acabó radicalmente con ese crecimiento. A partir de entonces, con la caída del bloque del este desde 1989, el movimiento antinuclear, que se opone por un lado al arma nuclear y por otra parte a la utilización de la energía nuclear, se ha visto desplazado de la vanguardia del movimiento ecologista por otras cuestiones, como el cambio climático.

En octubre de 2007 existían 439 centrales nucleares en todo el mundo que generaron 2,7 millones de MWh en 2006. La potencia instalada en 2007 era de 370.721 MWe. Aunque solo 30 países en el mundo poseen centrales nucleares, aproximadamente el 15 % de la energía eléctrica generada en el mundo se produce a partir de energía nuclear, aunque el porcentaje está actualmente en disminución.122​ La mayoría de los países con centrales nucleares han suspendido nuevas construcciones debido a los problemas de disposición final de los combustibles nucleares, cuya actividad (y riesgos para la vida humana) perdura durante muchos miles de años. Algunos científicos, como el galardonado físico Freeman Dyson, sostienen que la exageración de los beneficios de la energía nuclear provienen de una combinación de factores económicos y del sentido de culpa por los bombardeos atómicos sobre Hiroshima y Nagasaki.
Véase también: Controversia sobre la energía nuclear
Combustibles fósiles y fuentes renovables

El primer uso industrial de la energía hidráulica para la generación de electricidad alimentaba mediante una turbina fueron dieciséis lámparas de arco de la fábrica Wolverine en Grand Rapids (Estados Unidos, 1880).123​ La primera central hidroeléctrica entró en funcionamiento ese mismo año en Northumberland, Gran Bretaña,124​ y la primera ciudad en tener un suministro eléctrico fue Godalming, en Surrey (Inglaterra), ese mismo año, a corriente alterna con un alternador Siemens y una dinamo conectada a una rueda hidráulica, que funcionó sólo tres años.125​

Dos años más tarde se abrió la primera central hidráulica estadounidense (río Fox, Appleton, Wisconsin). El mismo año (1882), Edison abría la primera central eléctrica urbana comercial. No utilizaba fuentes renovables, sino la generación térmica a petróleo (con tres veces mayor eficiencia que los modelos anteriores, no comerciales), en Pearl Street (Nueva York), de 30 kW de potencia a 220-110 V de corriente continua. En 1895, su competidor, Westinghouse, abre la primera central de corriente alterna en el Niágara.126​ La desconfianza de Edison hacia la corriente alterna se mantuvo hasta 1892 y hasta finales del siglo XIX se usaba principalmente corriente continua para la iluminación.127​ El desarrollo del generador eléctrico y el perfeccionamiento de la turbina hidráulica respondieron al aumento de la demanda de electricidad del siglo XX, de modo que desde 1920 el porcentaje la hidroelectricidad en la producción total de electricidad era ya muy significativo. Desde entonces la tecnología de las principales instalaciones no ha variado sustancialmente. Una central hidroeléctrica es aquella que se utiliza para la generación de energía eléctrica mediante el aprovechamiento de la energía potencial del agua embalsada en una presa situada a más alto nivel que la central. El agua se lleva por una tubería de descarga a la sala de máquinas de la central, donde mediante enormes turbinas hidráulicas se produce la generación de energía eléctrica en alternadores.

Las dos características principales de una central hidroeléctrica, desde el punto de vista de su capacidad de generación de electricidad son:

La potencia, que es función del desnivel existente entre el nivel medio del embalse y el nivel medio de las aguas debajo de la central, y del caudal máximo turbinable, además de las características de la turbina y del generador.
La energía garantizada en un lapso de tiempo determinado, generalmente un año, que está en función del volumen útil del embalse, de la pluviometría anual y de la potencia instalada.

Esta forma de obtener energía eléctrica no está libre problemas medioambientales al necesitar la construcción de grandes embalses en los que acumular el agua, modificando el paisaje y los anteriores usos, tanto naturales como humanos, del agua y el entorno afectado. Proyectos gigantescos (presa de Asuán en Egipto, de Itaipú entre Brasil y Paraguay, o de las Tres Gargantas en China) tienen repercusiones de todo tipo, e incluso su viabilidad a largo plazo es cuestionada. Las minicentrales hidráulicas suelen ser mejor consideradas desde ese punto de vista, aunque su capacidad de generación es mucho más limitada.
Capacidad eólica mundial total instalada 1996-2012 [MW]. Fuente: GWEC

Actualmente se encuentra en desarrollo la explotación comercial de la conversión en electricidad del potencial energético que tiene el oleaje del mar, en las llamadas Centrales mareomotrices. Estas utilizan el flujo y reflujo de las mareas. En general pueden ser útiles en zonas costeras donde la amplitud de la marea sea amplia, y las condiciones morfológicas de la costa permitan la construcción de una presa que corte la entrada y salida de la marea en una bahía. Se genera energía tanto en el momento del llenado como en el momento del vaciado de la bahía.

Otras energías renovables, como la energía solar;128​ tienen una historia muy anterior a su utilización como generadoras de electricidad, e incluso en este campo surgieron tecnologías ya en el siglo XIX: solar con Edmund Becquerel en 1839 y Augustin Mouchet en 1861; eólica desde 1881, aunque el desarrollo de rotores verticales eficaces llegó con Klemin, Savoius y Darrieus, diseñados en 1925, 1929 y 1931).

El impulso actual de las energías renovables proviene de las necesidades energéticas de la crisis del petróleo de 1973 y, más recientemente, del hecho de que no emitan gases causantes de efecto invernadero, contrariamente a los combustibles fósiles (carbón, petróleo o gas natural). La producción de electricidad solar y, sobre todo, eólica está en fuerte auge aunque aún no ha desarrollado todo su potencial.

Las tecnologías utilizadas en las centrales termoeléctricas que utilizan combustibles fósiles se han perfeccionado, tanto para obtener una mayor eficiencia energética (ciclo combinado) como para reducir su impacto contaminante (lluvia ácida). Sin embargo, la supresión de las emisiones de gases de efecto invernadero mediante la captura y almacenamiento de carbono) aún no ha sido desarrollada industrialmente y constituye un tema controvertido.129​

La pila de combustible130​ ligada a las tecnologías del hidrógeno es uno de los últimos diseños propuestos para la sustitución de las energías tradicionales.
Robótica y máquinas CNC
Artículos principales: Robot y Control numérico por computadora.

1952 Una de las innovaciones más importantes y trascendentales en la producción de todo tipo de objetos en la segunda mitad del siglo XX ha sido la incorporación de robots, autómatas programables131​y máquinas guiadas por control numérico por computadora (CNC) en las cadenas y máquinas de producción, principalmente en tareas relacionadas con la manipulación, trasiego de objetos, procesos de mecanizado y soldadura. Estas innovaciones tecnológicas han sido viables entre otras cosas por el diseño y construcción de nuevas generaciones de motores eléctricos de corriente continua controlados mediante señales electrónicas de entrada y salida, y el giro que pueden tener en ambos sentidos, así como la variación de su velocidad de acuerdo con las instrucciones contenidas en el programa de ordenador que los controla. En estas máquinas se utilizan tres tipos de motores eléctricos: motores paso a paso, servomotores o motores encoder y motores lineales. El primer desarrollo en el área del control numérico por computadora (CNC) lo realizó el inventor norteamericano John T. Parsons (Detroit 1913-2007)132​ junto con su empleado Frank L. Stulen, en la década de 1940, realizando la primera demostración práctica de herramienta con movimiento programado en 1952.

La robótica es una rama de la tecnología (y que integra el álgebra, los autómatas programables, las máquinas de estados, la mecánica, la electrónica y la informática), que estudia el diseño y construcción de máquinas capaces de desempeñar tareas repetitivas, tareas en las que se necesita una alta precisión, tareas peligrosas para el ser humano o tareas irrealizables sin intervención de una máquina. Esas máquinas, los robots mantienen la conexión de retroalimentación inteligente entre el sentido y la acción directa bajo el control de un ordenador previamente programado con las tareas que tiene que realizar. Las acciones de este tipo de robots son generalmente llevadas a cabo por motores o actuadores que mueven extremidades o impulsan al robot. Hacia 1942, Isaac Asimov133​ da una versión humanizada a través de su conocida serie de relatos, en los que introduce por primera vez el término robótica con el sentido de disciplina científica encargada de construir y programar robots. Además, este autor plantea que las acciones que desarrolla un robot deben ser dirigidas por una serie de reglas morales, llamadas las Tres leyes de la robótica.

Los robots son usados hoy en día (2008) para llevar a cabo tareas sucias, peligrosas, difíciles, repetitivas o embotadas para los humanos. Esto usualmente toma la forma de un robot industrial usado en las líneas de producción. Otras aplicaciones incluyen la limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y rescate de personas y localización de minas terrestres. La manufactura continúa siendo el principal mercado donde los robots son utilizados. En particular, robots articulados (similares en capacidad de movimiento a un brazo humano) son los más usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de maquinaria. La industria automotriz ha tomado gran ventaja de esta nueva tecnología donde los robots han sido programados para reemplazar el trabajo de los humanos en muchas tareas repetitivas. Recientemente, se ha logrado un gran avance en los robots dedicados a la medicina que utiliza robots de última generación en procedimientos de cirugía invasiva mínima. La automatización de laboratorios también es un área en crecimiento. Los robots parecen estar abaratándose y empequeñeciéndose en tamaño, todo relacionado con la miniaturización de los componentes electrónicos que se utilizan para controlarlos. También, muchos robots son diseñados en simuladores mucho antes de que sean construidos e interactúen con ambientes físicos reales.134​
Láser
Artículo principal: Láser

En 1960 el físico norteamericano Charles Townes (1915 - 2015) realizó en la Universidad de Columbia el descubrimiento que le proporcionaría su salto a la fama científica: fue descrito como Microwave Amplification by Stimulated Emission of Radiation (máser). Sin embargo fue el físico norteamericano Gordon Gould (1920-2005) quien patentó los primeros láseres para usos industriales y militares, a pesar de que hubo muchos pleitos porque varios científicos estaban estudiando la posibilidad de tecnologías similares a partir de las teorías desarrolladas por Einstein sobre la emisión estimulada de radiación. Ello fue así porque Gould fue el científico que primero lo fabricó y le puso el nombre: Light Amplification by Stimulated Emission of Radiation (Amplificación de Luz por Emisión Estimulada de Radiación, LASER)135​ No obstante, fue a Charles Townes a quien le fue concedido el premio Nobel de Física en 1964.

Un láser es un dispositivo que utiliza un efecto de la mecánica cuántica, la emisión inducida o estimulada, para generar un haz de luz coherente de un medio adecuado y con el tamaño, la forma y la pureza controlados. El tamaño de los láseres varía ampliamente, desde diodos láser microscópicos con numerosas aplicaciones, al láser de cristales dopados con neodimio con un tamaño similar al de un campo de fútbol, usado para la fusión de confinamiento inercial, la investigación sobre armamento nuclear u otros experimentos físicos en los que se presenten altas densidades de energía. Desde su invención en 1960 se han vuelto omnipresentes y se pueden encontrar en miles de variadas aplicaciones en cualquier sector de la sociedad actual, incluyendo campos tan dispares como la electrónica de consumo y las tecnologías de la información (sistemas de lectura digital de los discos duros, los CD y los DVD y del código de barras), hasta análisis científicos y métodos de diagnóstico en medicina, así como el mecanizado, soldadura o sistemas de corte en sectores industriales y militares.136​
Electrificación de los ferrocarriles
Artículo principal: Locomotora
Véase también: Tren eléctrico
Train à Grande Vitesse

Una de las aplicaciones más significativas de la electricidad fue la casi total electrificación de los ferrocarriles en los países más industrializados. La primera fase de este proceso, más generalizada que la segunda, fue la sustitución de las locomotoras que utilizaban carbón, por las locomotoras llamadas diésel que usan combustible obtenido del petróleo. Las locomotoras diésel-eléctricas consisten básicamente en dos componentes: un motor diésel que mueve un generador eléctrico y varios motores eléctricos (conocidos como motores de tracción) que comunican a las ruedas (pares) la fuerza tractiva que mueve a la locomotora. Generalmente hay un motor de tracción por cada eje, siendo generalmente 4 o 6 en una locomotora típica. Los motores de tracción se alimentan con corriente eléctrica y luego, por medio de engranajes , mueven las ruedas. En el caso de las locomotoras diésel no hace falta que las vías estén electrificadas, y ya se usan en casi todas las vías del mundo estén las vías electrificadas o no.

El siguiente avance tecnológico fue la puesta en servicio de locomotoras eléctricas directas, las que usan como fuente de energía la energía eléctrica proveniente de una fuente externa, para aplicarla directamente a motores de tracción eléctricos. Las locomotoras eléctricas requieren la instalación de cables eléctricos de alimentación a lo largo de todo el recorrido, que se sitúan a una altura por encima de los trenes a fin de evitar accidentes. Esta instalación se conoce como catenaria. Las locomotoras toman la electricidad por un trole, que la mayoría de las veces tiene forma de pantógrafo y como tal se conoce. El coste de la instalación de alimentación hace que la tracción eléctrica solamente sea rentable en líneas de gran tráfico, o bien en vías con gran parte del recorrido en túnel bajo montañas o por debajo del mar, con dificultades para la toma de aire para la combustión de los otros tipos de motor. En los años 1980 se integraron como propulsores de vehículos eléctricos ferroviarios los motores asíncronos, y aparecieron los sistemas electrónicos de regulación de potencia que dieron el espaldarazo definitivo a la elección de este tipo de tracción por las compañías ferroviarias. Las dificultades de aplicar la tracción eléctrica en zonas con climatología extrema hacen que en esos casos, se siga utilizando la tracción diésel, ya que la nieve intensa y su filtración por ventiladores a las cámaras de alta tensión originan derivaciones de circuitos eléctricos que dejan inservibles estas locomotoras mientras dure el temporal. Las bajas temperaturas también afectan de diferente manera al cable de contacto de la catenaria que pierde la conductividad durante intervalos de tiempo. El hito de los trenes eléctricos lo constituyen los llamados trenes de alta velocidad cuyo desarrollo ha sido el siguiente:

1964 El Shinkansen o tren bala japonés fue el primer tren de alta velocidad en utilizar un trazado propio, y se inauguró para los Juegos Olímpicos de Tokio 1964. 1979 Un tren de levitación magnética se instaló por primera vez en Hamburgo para la Exhibición Internacional del Transporte (IVA 79), desarrollando patentes anteriores. Hubo pruebas posteriores de trenes similares en Inglaterra y actualmente operan comercialmente líneas en Japón y China. Se combinan con el sistema de monorraíl. 1981 El Tren de Gran Velocidad (en francés: Train à Grande Vitesse), conocido como TGV, es un tipo de tren eléctrico de alta velocidad desarrollado por la empresa francesa Alstom para hacer inicialmente el recorrido entre París y Lyon. El TGV es uno de los trenes más veloces del mundo, operando en algunos tramos a velocidades de hasta 320 km/h teniendo el récord de mayor velocidad media en un servicio de pasajeros y el de mayor velocidad en condiciones especiales de prueba. En 1990 alcanzó la velocidad de 515,3 km/h, y en el 2007 superó su propio registro al llegar a los 574,8 km/h en la línea París-Estrasburgo.137​
Electromedicina
Artículos principales: Electromedicina y Radiología.
Imagen radiológica en 3D

1895. Los rayos X fueron descubiertos en 1895 por el físico alemán Wilhelm Röntgen, quien descubrió que el bombardeo de átomos metálicos con electrones de alta velocidad produce la emisión de radiaciones de gran energía. Combinados con las tecnologías de la fotografía, los rayos X permitieron obtener imágenes de partes interiores del cuerpo humano antes inaccesibles sin mediar cirugía. A partir de ese momento se convirtieron en imprescindibles medios de diagnóstico, formando parte esencial del campo denominado electromedicina.

Su uso principal en diagnóstico médico, por ser las más fáciles de visualizar, fue la observación de las estructuras óseas. A partir de la generalización de esta práctica se desarrolló la radiología como especialidad médica que emplea la radiografía como medio de diagnóstico, que sigue siendo el uso más extendido de los rayos X. En desarrollos posteriores se añadieron la tomografía axial computarizada (TAC, en 1967, por un equipo dirigido por los ingenieros Godfrey Newbold Hounsfield y Allan M. Cormack, premios Nobel de Medicina en 1979), la resonancia magnética (descubierta como principio en 1938 y aplicada a la imagen de diagnóstico por Paul Lauterbur y Peter Mansfield, premios Nobel de 2003) y la angiografía (utilizada desde 1927 por el portugués Egas Moniz, ganador del premio Nobel en 1949, y desarrollada de forma más segura por la técnica Seldinger desde 1953); así como la utilización terapéutica de la radioterapia.

Los ultrasonidos fueron utilizados por primera vez en medicina por el estadounidense George Ludwig, a finales de los años 1940, mientras que la ecografía fue desarrollada en Suecia por los cardiólogos Inge Edler y Carl Hellmuth Hertz (hijo y sobrino nieto de los famosos físicos), y en el Reino Unido por Ian Donald y el equipo de ginecología del hospital de Glasgow.

Se aplican otras tecnologías electromédicas en la cardiología, tanto en diagnóstico (electrocardiograma, utilizado desde 1911, que valió el premio Nobel de 1924 a Willem Einthoven) como en tratamientos (desfibrilador) y prótesis: (los marcapasos y el corazón artificial). También en áreas como los problemas de audición (mediante los audífonos) o el diagnóstico y tratamiento de problemas neurológicos y neurofisiológicos.

Se han equipado los quirófanos y unidades de rehabilitación y cuidados intensivos (UVI) o (UCI) con equipos electrónicos e informáticos de alta tecnología. Se han mejorado los equipamientos que realizan análisis clínicos y se han desarrollado microscopios electrónicos de gran resolución.
Véanse también: resonancia magnética nuclear, Tomografía axial computarizada, Electroterapia, Neurología y Rayos X.
Telecomunicaciones e Internet
Artículos principales: Telecomunicación e Internet.
Satélite de comunicaciones.

1969 El auge de las telecomunicaciones empieza cuando se sitúan en el espacio exterior los primeros satélites de comunicaciones, satélites artificiales situados en órbita alrededor de la Tierra que transmiten ondas electromagnéticas; pero este punto culminante tuvo su prehistoria: El término telecomunicación fue definido oficialmente por primera vez en 1932 durante una conferencia internacional que tuvo lugar en Madrid ("toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos").138​ La base matemática sobre la que se desarrollan las telecomunicaciones dependientes de la electricidad es muy anterior: fue desarrollada por Maxwell, quien ya predijo que era posible propagar ondas por el espacio libre utilizando descargas eléctricas (prefacio de Treatise on Electricity and Magnetism, 1873), hecho que corroboró Heinrich Hertz con el primer transmisor de radio generando radiofrecuencias entre 31 MHz y 1.25 GHz (1887). No obstante, el inicio de la era de la comunicación rápida a distancia ya había comenzado en la primera mitad del siglo XIX con el telégrafo eléctrico, al que se añadieron más tarde el teléfono y la revolución de la comunicación inalámbrica con las ondas de radio. A principios del siglo XX apareció el teletipo que, utilizando el código Baudot, permitía enviar y recibir texto en algo parecido a una máquina de escribir. En 1921 la wirephoto o telefoto permitió transmitir imágenes por teléfono (ya se había hecho telegráficamente desde la Exposición Universal de Londres de 1851 y comercialmente desde 1863), y a partir de entonces se comercializó el fax por AT&T. Esta misma compañía norteamericana desarrolló desde 1958 distintos tipos de aparatos digitales precedentes del módem para las comunicaciones telefónicas, que más tarde se aplicaron a la transmisión de datos entre computadoras y otros dispositivos. En los años 1960 comienza a ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de comunicación y las redes de conmutación de paquetes.

Un satélite actúa básicamente como un repetidor situado en el espacio: recibe las señales enviadas desde la estación terrestre y las reemite a otro satélite o de vuelta a los receptores terrestres. Los satélites son puestos en órbita mediante cohetes espaciales que los sitúan circundando la Tierra a distancias relativamente cercanas fuera de la atmósfera. Las antenas utilizadas preferentemente en las comunicaciones vía satélites son las antenas parabólicas, cada vez más frecuentes en las terrazas y tejados de nuestras ciudades. Tienen forma de parábola y la particularidad de que las señales que inciden sobre su superficie se reflejan e inciden sobre el foco de la parábola, donde se encuentra el elemento receptor.

Con la puesta en marcha de los satélites de comunicaciones ha sido posible disponer de muchos canales de televisión, el impresionante desarrollo de la telefonía móvil y de Internet. Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU..

El siglo XXI está viviendo los comienzos de la interconexión total a la que convergen las telecomunicaciones, a través de todo tipo de dispositivos cada vez más rápidos, más compactos, más poderosos y multifuncionales. Ya no es necesario establecer enlaces físicos entre dos puntos para transmitir la información de un punto a otro. Debido a la gran velocidad de propagación de las ondas electromagnéticas, los mensajes enviados desde cualquier punto de la superficie terrestre o de su atmósfera se reciben casi simultáneamente en cualquier otro.
Véase también



Responder

Volver a “Electricidad”