En el aterrizaje lunar de 1969, ¿por qué el video original no se mostró en vivo en la televisión? ¿Por qué se filmó desde una pantalla y luego se transmitió?

P: En el aterrizaje lunar de 1969, ¿por qué el video original no se mostró en vivo en la televisión? ¿Por qué se filmó desde una pantalla y luego se transmitió?

En 1969, se utilizaron al menos 15 estándares de transmisión de TV (e innumerables variantes y derivados de color) en uso en todo el mundo. Todos eran analógicos, lo que significa que la detección, la modulación, la transmisión, la decodificación y la visualización estaban íntimamente relacionadas, esencialmente formando un circuito simple desde el estudio hasta el hogar.

La tecnología aún no existía para convertir electrónicamente de un estándar analógico a otro. Incluso los sistemas de grabación de video se adaptaron a cada estándar, por ejemplo, grabando los 30 cuadros por segundo utilizados en las transmisiones NTSC de EE. UU. Como 30 franjas por segundo a través de una cinta magnética. ¿Exactamente cómo convertiría eso a un sistema que usa 25 líneas por segundo, líneas con un número diferente de píxeles, un esquema de entrelazado diferente, un espaciado entre tramas diferente y diferentes frecuencias a lo largo?

Para resolver el problema, la NASA contrató a RCA para proporcionar máquinas capaces de convertir las señales personalizadas de baja resolución y exploración lenta de la Luna al formato de transmisión NTSC utilizado en los EE. UU. (Y Japón).

Al carecer de cualquier medio eléctrico de conversión de señal, RCA tomó el enfoque directo. Una cámara TK-22 de vanguardia se montó frente a una pantalla de televisión de exploración lenta de alta calidad, en el interior oscuro del convertidor de exploración lenta de apolo RCA de RCA:

La unidad hizo un poco más que simplemente filmar fuera de la pantalla (no el monitor que se muestra arriba, sino uno escondido dentro del gabinete). Para poder convertir la velocidad de escaneo sin parpadeo, tuvo que hacer un montón de magia, mostrar un marco, guardarlo en un disco duro analógico, reproducirlo con tiempo modificado y luego enviar el marco inalterado a la pantalla. El resultado fue similar al alcanzado por la transferencia del cinescopio, para almacenar imágenes de TV en una película antes del desarrollo de la cinta de video, por lo que para los ingenieros de RCA, parecía una buena solución.

En 1969, la gente tenía expectativas muy diferentes de la televisión. En aquellos días, era raro que alguien, bajo cualquier circunstancia, recibiera lo que llamaríamos una imagen clara: sin fantasmas ni interferencias, e incluso las mejores transmisiones comerciales incluían habitualmente artefactos de imagen: retraso de píxeles, sangrado, halo de orticon , defectos de luz de arrastre, y así sucesivamente …

[Orthicon halo alrededor de un punto culminante en una guitarra]

… entonces, para cualquier persona que viva en ese momento, cualquier imagen reconocible de un astronauta en la escalera en vivo mientras estuvo de pie allí fue un milagro.

Por supuesto, mientras que la pérdida de calidad inherente a este sistema puede parecer mundana en su momento, hoy en día, es una verdadera lástima.

Para empeorar las cosas, las señales analógicas sin procesar de la luna, que se grabaron en rollos de cinta de 9,700 pies en las estaciones receptoras en caso de algún problema con las transmisiones en vivo, se reutilizaron para misiones posteriores. Si tuviéramos estos hoy, podríamos construir versiones considerablemente superiores incluso a lo que implica la imagen de la izquierda arriba. Lamentablemente, en 1969, nadie podía prever la tecnología de procesamiento de imágenes de hoy. El trabajo estaba hecho, las imágenes estaban seguras en cintas de video y películas, y las cintas y el almacenamiento de cintas eran caros. Así que eso fue todo.


Si lo que le interesa es la exploración del espacio, puede disfrutar de mi muestra de scifi galardonada y gratuita.

En primer lugar, no fue “filmado”. La película no es un video. * En ningún momento del proceso de la emisión en vivo de moonwalk se trató de una película. Fue una transmisión de video en vivo. No hay pelicula No hay filmación. Sólo transmisión de video. La película que fue filmada por el equipo de Apollo 11 fue desarrollada y utilizada después de que regresaron a la Tierra.

En segundo lugar, fue una transmisión en vivo. Las imágenes originales se mostraron en vivo en la televisión. Fue un enlace descendente en vivo desde la nave espacial a las estaciones de rastreo, donde la señal se “convirtió” a 525 / 29.97i, desde las estaciones de rastreo, la señal convertida se envió a Houston, y de allí a las redes.

La razón por la que mostraron la transmisión de video y la filmaron con otra cámara de video es que el estándar de transmisión NTSC en ese momento era de 525 líneas a 29.97i fps y la cámara / sistema de transmisión utilizado para el Apollo 11 moonwalk podía manejar 320 líneas a 10 fps. La razón principal por la cual la señal de video de Moonwalk fue de calidad relativamente baja fue que la NASA solo tenía 700 kHz de ancho de banda para su enlace descendente de televisión. Por lo tanto, utilizaron un escaneo lento a una resolución más baja que la normal para tener una señal lo suficientemente pequeña como para caber. Para transmitir a través de las redes de televisión, tuvieron que convertir la señal de 320/10 a 525 / 29.97. La forma en que lo hicieron fue mostrar la alimentación de la nave espacial en un monitor y grabarla con una cámara de transmisión. (Entre la NASA, las estaciones de rastreo y las redes, tanto el enlace descendente de la nave espacial como la transmisión se grabaron con cinta. No película. Cinta).

Para lo que vale la pena, si ve algún evento de televisión en vivo hoy, es probable que algunas de las tomas se conviertan de una manera similar. Es solo que usamos convertidores así:

No significa que la transmisión no sea en vivo, solo significa que estamos ordenando diferentes señales para que puedan correr a través de la placa del TD, transmitirlas juntas y que su televisor las pueda entender.


*Película:

Término análogo. 24 fps. Imágenes magníficas reales que se ejecutan a través de un proyector y se presentan en gran formato. La película filmada en la década de 1940 todavía se ve brillante hoy si se mantiene bien.

Cinta:

No fotos. Una señal grabada magnéticamente. La calidad de la imagen anterior a los estándares de HD realmente deja mucho que desear.

Esta afirmación de que las transmisiones de Apollo TV no se derivaron de los documentales de la conspiración de la broma lunar de alrededor de 2004 y se basa en un malentendido (tal vez intencional, tal vez no) de cómo funcionó el sistema de televisión de Apollo 11, esto se aplica solo a las misiones posteriores de Apollo 11. un sistema de TV diferente, pero los teóricos de la conspiración lo aplican a todas las misiones independientemente.

En primer lugar, algunos antecedentes. El peso era increíblemente importante, no se llevaba nada a la Luna a menos que fuera absolutamente necesario. Cuanto más tomes en el Módulo Lunar a la Luna, menos muestras podrás devolver. Inicialmente, la NASA en general se oponía a tomar una cámara de televisión para transmitir en vivo desde la Luna, prefirieron usar el cine y la fotografía de alta calidad para grabar el evento y las observaciones científicas. La calidad del video era pobre en aquellos primeros días de la televisión, ¡la BBC, por ejemplo, solo inició transmisiones en color en 1968! Fue un argumento clásico de la gente de relaciones públicas contra los científicos, quienes argumentaron que una cámara de televisión ocuparía espacio y poder que podría usarse para equipos más experimentales, etc. Sin embargo, una cámara de televisión fue probada en las primeras misiones de Apollo que no lo hicieron. aterriza en la Luna EG Apolo 8, y al público le encantó!

La gente de relaciones públicas en la NASA había ganado el día.

Había, sin embargo, algunos obstáculos que superar. Las cámaras de televisión en 1969 eran monstruos hambrientos de energía y no podían utilizarse en las misiones Apollo, por lo que se tuvo que diseñar una cámara portátil especial que fuera pequeña y liviana, y con un bajo consumo de energía. Para aquellos interesados ​​en aprender más, pueden encontrar los detalles aquí:

Las camaras de apolo

https://www.hq.nasa.gov/alsj/Apo

La cámara tardó un par de años en diseñarse, pero la Westinghouse Apollo Lunar Television Camera estaba lista para el lanzamiento del Apollo 11. Era pequeña y liviana y usaba poca energía, pero también era blanco y negro para mantener bajo el peso y el consumo de energía y para usar menos “ancho de banda” en la señal transmitida.

Los compromisos técnicos significaron que la cámara transmitiría a 10 cuadros por segundo y una resolución baja de 320 líneas. Esto no sería utilizable por las redes y compañías de transmisión del mundo que utilizaron 30 o 25 cuadros por segundo (estándares de EE. UU. Y Europa) y 525 o 625 líneas. Así que un convertidor fue diseñado por RCA e instalado en las estaciones receptoras, no en Houston. Los conceptos básicos del sistema de conversión fueron una cámara estándar de EE. UU. De 525 líneas y 30 fps apuntada a un monitor especial que muestra la señal entrante de la Luna. La salida de la cámara pasó por algunos bits más de componentes electrónicos para completar la conversión y las imágenes estándar de transmisión resultantes se retransmitieron a las redes mundiales, la conversión tomó aproximadamente medio segundo más. Las redes no pudieron haber usado la señal original. Como no tenían forma de convertirlo.

Es importante tener en cuenta que esta NO fue una cámara montada en un trípode que apunta a una pantalla sino una unidad de consola sin cámara visible

El convertidor en uso en la estación de recepción de Parkes, Australia. La cámara es el recuadro negro donde la flecha apunta: el interruptor para invertir la imagen.

Desde :

El apoyo a la historia de Parkes Apollo 11

Todo esto se hizo en las estaciones receptoras de Australasia y California. La señal fue luego transmitida a Nueva York y a las redes y a la propia NASA en Houston.

Para cuando los teóricos de la conspiración (TC) obtuvieron esta información, se convirtió en

“A las redes se les negó el acceso a la transmisión en vivo y se vieron obligadas a filmar los eventos de la pantalla de proyección de TV”. Cito un documental de un conocido CT, citado en el año 2004. Esta idea se reitera frecuentemente como un hecho en los videos de CT y Los sitios web no importa cuántas veces se les explique la explicación real.

¡Las noticias falsas no son un fenómeno moderno!

La misión del Apolo 11 tenía dos módulos.

  • Módulo lunar – que desciende a la luna llevando a dos astronautas.
  • Módulo de comando / servicio: CSM fue diseñado para devolver a los astronautas de la superficie lunar en una misión de descenso directo a la Tierra y salpicar hacia abajo.

En esta imagen puede ver las antenas de alta ganancia que se usaron en la transmisión de datos en vivo.

Esta es la cámara real utilizada en Apollo

La transmisión directa desde el módulo del servicio Command no es posible, pero CSM almacenó la grabación de la conversación que es transmitida por LM (que ocurre una vez en una rotación porque el LM está estacionario mientras CSM está orbitando la Luna) y luego el CSM se envía a la Tierra. A un joven ingeniero eléctrico de Westinghouse, a Lebar se le había asignado la tarea de desarrollar una cámara que pudiera captar el momento más memorable del siglo XX: el aterrizaje lunar del Apolo 11 . El objetivo de la misión no era simplemente conseguir un hombre en la luna. Se trataba de enviar un canal de televisión en vivo para que todos pudieran verlo, especialmente los soviéticos, que habían iniciado la carrera espacial en 1957 al lanzar Sputnik. Si fallaba la transmisión, Lebar, el portavoz designado para la configuración del video, se volvería a enfocar en Mission Control en Houston y se disculparía con más de 500 millones de espectadores de TV. “Era mi responsabilidad”, dice. “Tendría que levantarme y recibir el golpe”.

Construir una cámara que pudiera sobrevivir a las aplastantes [math] g – [/ math] fuerzas de despegue y luego funcionar en casi la ingravidez en la luna fue solo una parte del desafío para Lebar. La parte del espectro de transmisión que tradicionalmente se usaba para el video enviaba datos vitales de la nave a la Tierra, y no quedaba espacio para el formato de video estándar en blanco y negro de la era: 525 líneas de datos de escaneo a 30 cuadros por segundo, transmitidas a 4,5 MHz. Así que Lebar ayudó a diseñar un “formato de bola extraña” más pequeño: 320 líneas de escaneo a 10 fps, transmitidas a una escasa 500 kHz. Rastrear estaciones de regreso a la Tierra tomaría este llamado metraje de escaneo lento, lo convertirá para transmisión de TV y lo transmitirá al Control de Misión, que lo enviará para que lo vea todo el mundo.

Y esa fue la parte fácil. Para asegurar una señal de transmisión directa de la luna, la NASA tenía que mantener estaciones en tres continentes: dos en Australia (la Estación de Seguimiento de Honeysuckle Creek cerca de Canberra y el Observatorio de Radio Parkes rodeado de prados de ovejas al oeste de Sydney); uno en el Goldstone Deep Space Communications Complex en el desierto de Mojave en California; y uno en el sitio de seguimiento de vuelo tripulado de Madrid en España. Mientras Armstrong se preparaba para su primer paseo lunar, Dick Nafzger, el coordinador de 28 años de las operaciones de televisión de las estaciones de rastreo, estaba tan nervioso como Lebar. Nafzger fue el encargado de Control de Misión encargado de monitorear el equipo de tierra y la conversión de las imágenes de barrido lento a los estándares de transmisión de los EE. “Todos nos involucraríamos en algo de importancia histórica monumental”, dice.

Cuando Armstrong abrió la escotilla del módulo lunar, salió a la luna y pronunció sus famosas palabras sobre el salto gigante de la humanidad, las estaciones de rastreo con una línea directa en la señal del Apolo eran las de Australia. La antena parabólica de 200 pies de diámetro en las instalaciones de Parkes logró resistir ráfagas de viento a 70 mph y capturó con éxito las imágenes, que se convirtieron y transmitieron a Houston. “Cuando se abrió la puerta, supe que la cámara estaba funcionando”, dice Lebar, “fue pura alegría”.

Fuente: One Giant Screwup for Mankind

“En el aterrizaje lunar de 1969, ¿por qué la imagen original no se mostró en vivo en la televisión? ¿Por qué se filmó desde una pantalla y luego se transmitió?”

Esto no responde la pregunta directamente, pero es (posiblemente …) algo interesante.

En el momento de la luna, yo era un estudiante de secundaria de 14 años en Nueva Zelanda.

No teníamos televisión satelital en vivo entonces, pero Australia sí.

El primer paseo lunar (no el aterrizaje, ¿no creo que se cubriera en vivo en algún lugar?) Ocurrió alrededor del mediodía / primera hora de la tarde, y yo estaba en la escuela, aproximadamente a una hora de viaje en autobús desde mi casa. Creo que la escuela escuchó la cobertura de radio en vivo a través del sistema de PA de la escuela, pero no estoy 100% seguro.

Muy atentamente, la compañía estatal de televisión organizó la filmación del moonwalk (es decir, apunta una cámara de cine a un televisor y luego desarrolla la película rápidamente) en Australia, y luego voló la película a través del Mar de Tasmania en una fuerza aérea. Jet (más rápido que un vuelo comercial de tabla de tiempos), y luego mostrar la película en la televisión.

Así que pudimos escuchar el moonwalk en vivo en la radio y verlo en la televisión unas 4 horas más tarde.

La premisa de la pregunta es objetivamente incorrecta. Como alguien que personalmente vio el aterrizaje en vivo en la televisión, sugiero que no se compre en el engaño que comenzó este poco de “noticias falsas”.