Empecemos por acá. Antes de avanzar, y teniendo en cuenta que usted está leyendo este artículo en internet (salvo que lo haya impreso, en cuyo caso le pediría que vuelva al sistema digital desde donde lo envió a imprimir) y vaya hasta este lugar:
Yo sé que está en inglés, pero le pido que mire el video dos veces. La primera, mírelo sin leer nada de lo que escribí yo más abajo en el artículo. No importa que no entienda el idioma (después lo traduzco yo), pero en principio, mírelo sin saber de qué se trata.
¿Terminó?
Ahora sí, yo voy a traducir lo que dice Barack Obama. El video contiene algunas expresiones que están dichas en lo que nosotros llamaríamos ‘lunfardo’, y por eso yo hago una traducción ‘libre’, pero a los efectos del mensaje que quiero transmitir, la diferencia será irrelevante. En total el video dura 72 segundos, 1 minuto y 12 segundos. No es mucho.
Acá voy.
“Estamos entrando en una era en la cual nuestros enemigos pueden conseguir que cualquier persona esté diciendo cualquier cosa en cualquier momento, aunque nunca hubieran dicho ninguna de esas cosas. Por ejemplo, me podrían hacer decir a mí cosas como… no se, “Killmonger [1] tenía razón”, o “Ben Carson está ‘loco’ (interpretación mía)”, o, ¿qué les parece esto?: simplemente “El presidente Trump es una cloaca total”.
“Usted se da cuenta que yo nunca diría ninguna de esas cosas, al menos no las diría en público, pero alguna otra persona sí las diría. Alguno como Jordan Peele [2]. Este es un momento peligroso. En el futuro, tenemos que ser o estar más ‘alertas’ (o vigilantes o atentos) con lo que le creemos o no a Internet. Es un momento en el que tenemos que reclinarnos en las fuentes de noticias que sean creíbles.
“Puede que suene muy ‘básico’, pero en el futuro, en la era de la información esa será la diferencia si ‘sobrevivimos’ o si nos transformamos en una tremenda ‘distopia’ [3].
“Gracias, y estén alertas, putos”.
Acá termina el video. ¿Se da cuenta usted del peligro que esto representa? En función de la tecnología que está disponible ya, cualquier persona puede ‘aparecer’ diciendo ‘cualquier cosa’, y tener a esa persona ‘hablando en televisión y mirando a la cámara’, moviendo sus labios en forma coordinada como si hubiera efectivamente dicho lo que allí parece que está diciendo.
Como dice Jordan Peele, el director de pelis como Nosotros y autor del video junto a la gente de BuzzFeed, no es que ‘vamos a correr’ un cierto peligro si alguien utiliza esta técnica para ‘modificar’ lo que alguien piensa o dice. No. No será en el futuro que vamos a correr un riesgo: ¡es ahora!
El video es nada más que una muestra de las capacidades que tiene esta tecnología. Fue puesto a disposición del público el 17 de abril del año 2018. Para quienes les interese tener los datos precisos, la compañía productora de la que Peele es el dueño advierte que fue una combinación de técnicas modernas y otras que ya se usaban.[4]
Los avances producidos en los últimos dos años en Inteligencia Artificial son descomunales. Por supuesto, yo sé que es un tema controversial. Utilizadas en forma correcta, las Inteligencias Artificiales resuelven innumerables problemas y pueden estar puestos al servicio para mejorar la calidad de vida de la sociedad.
Pero por otro lado, no se me escapa que están siendo utilizadas hace ya bastante tiempo para generar, por ejemplo, noticias falsas.
El video que figura más arriba es estremecedor y atemorizante. ¿Cómo hacer para saber si lo que uno está ‘viendo’ es cierto o no?
Permítame exhibir otro ejemplo: es posible que usted haya escuchado hablar de Adobe Photoshop, una aplicación que permite ‘modificar fotos’, usando filtros de diversos tipos, disimulando (o directamente ‘desapareciendo’ arrugas), o modificando los labios de una persona, o las orejas o la nariz… En algún sentido es una forma de alterar un original hasta convertirlo en otro sin poder distinguir cuál es cuál. Ahora avancemos en otra dirección pero con similares consecuencias.
Lo que no se conocía hasta hace muy poco, es que la misma compañía (Adobe) estaba a punto de hacer lo mismo pero con el ‘audio’ de una persona.
Quien lo anunció fue Zeyu Jin, un programador de Adobe, en la conferencia Adobe MAX que se hizo en San Diego, California, durante el 3 de noviembre del 2016. Este software se denomina Project VoCo y todavía no está claro en qué momento será accesible al público general, como usted y yo. Pero lo que sí está claro, es que se podrán introducir (o agregar) palabras que nunca fueron pronunciadas por la persona que aparece en el registro de audio que se tiene de ella. El proyecto está hecho en colaboración con la Universidad de Princeton también [5]. Durante la conferencia, Jin dijo que uno necesita alrededor de 20 minutos de material grabado de la persona en cuestión.
Se puso frente a una pantalla gigante que estaba en el fondo del escenario, y tipeó palabras que no aparecían en el audio original. En tiempo real (es decir, en forma instantánea), apretó play y apareció un nuevo audio pero con las palabras cambiadas, pronunciadas por la misma persona que había grabado el original.
La pregunta natural podría ser la siguiente: ¿qué propósito podría tener una alteración de este tipo? Una potencial respuesta es la siguiente: si uno quisiera que una locutora o locutor leyera un audio-libro, no hace falta que lo lea todo. Alcanzará con que grabe menos de media hora, y después uno introduce el texto completo y tendrá el libro listo, en versión audible y ‘grabado’ por quien usted quiera.
Como siempre, la ciencia y la tecnología no tienen moral. Son herramientas que uno puede usar para el bien o para el mal. La energía atómica puede ser utilizada como una fuente alternativa de energía o para construir una bomba. El hombre elige.
Con todo, y para terminar, el video mostrando a Obama diciendo lo que dice, es alarmante y preocupante, porque usado ‘para el mal’, puede lograr dañar la reputación de alguien para toda la vida y lo que históricamente fue considerado como una ‘prueba’ (en un juicio por ejemplo), ahora ya deja de tener valor y pierde credibilidad.
Habrá que refundar este tipo de nociones y buscar garantías de autenticidad. Por ahora, está todo abierto.
[1] El personaje que interpreta Michael B. Jordan en la película “Pantera Negra”, estrenada en el año 2018.
[2] Aquí, a los 38 segundos de comenzado el video, la pantalla se divide en dos, y aparece Jordan Peele moviendo los labios y replicando exactamente todo lo que está diciendo Obama en la otra mitad de la pantalla. Si uno mira a uno y a otro, no puede distinguir ninguna diferencia. Podría estar hablando cualquiera de los dos, pero con la voz de Obama.
[3] La traducción de dystopia en castellano sería algo así como lo opuesto o contrario a una utopía, un lugar terrible en donde todo el mundo vive mal.
[4] Adobe After Effects y la herramienta que ‘intercambia’ caras usando AI (inteligencia artificial) que se llama FakeApp.
[5] El artículo del cual extraje esta información está acá: https://www.creativebloq.com/news/adobe-prototypes-photoshop-for-audio
--------------------------------
Para suscribirte con $ 1000/mes al Cohete hace click aquí
Para suscribirte con $ 2500/mes al Cohete hace click aquí
Para suscribirte con $ 5000/mes al Cohete hace click aquí