¿Cómo puede manifestarse la falsificación en red usando el Aprendizaje Automático y su corolario el Aprendizaje Profundo?
La verosimilitud para un pintor naturalista del pasado era un reto creativo, hoy día cualquier persona se toma fotos (selfies) en alta resolución con su teléfono inteligente y, de inmediato, las sube a sus redes sociales. Estas imágenes probablemente carecen de la genialidad creativa de aquellos artistas, pero son solo la punta del iceberg de la inmensa cantidad de datos personales que las personas comparten públicamente sin pensarlo dos veces. De la misma manera, la distribución, difusión y consumo de vídeos, podcast, webs, blogs, etcétera, conforman un ecosistema de información que puede ser usado, manipulado, traficado y vendido sin el consentimiento de sus creadores.
La tecnología de aprendizaje fundamentada en redes neuronales tiene en el deepfake su aplicación más popular. Los deepfakes son falsificaciones de vídeos creados con algoritmos de aprendizaje profundo, de allí su nombre. Básicamente la inteligencia artificial crea un audiovisual verosímil falso de otros vídeos e imágenes reales con base a una Red Generativa Antagónica (con las siglas inglesas: GANs). Las síntesis realistas surgen de la cualidad inteligente que tienen dos redes neuronales de competir entre sí.
El sistema ha tenido excelentes aplicaciones en la cinematografía, creando escenas realistas con actores que por algún motivo no pueden actuar en persona. Es perfectamente comprensible que las artes del espectáculo utilicen habitualmente esta tecnología. Sin embargo, los deepfakes realizados a partir de figuras públicas (políticos, líderes, influencers, entre otros), con la finalidad de cambiar o tergiversar sus discursos y opiniones, entra en el territorio de la criminalidad en línea.
Avizorando una realidad tecnológica en la que lo falso y lo verdadero se confundirán en medio de ideologías antagónicas y sociedades insatisfechas, la urgencia de construir una plataforma técnica de contrapeso resulta impostergable. No basta con la educación de los usuarios, porque la avalancha de información falsa en las redes sociales va en aumento y los deepfakes, cada vez más realistas, llevarán a las personas a no creer ni en las imágenes y vídeos verídicos. Y sin llegar a vídeo, en 2019, ya la Inteligencia Artificial es capaz de reproducir con exactitud la voz de cualquier CEO (Director Ejecutivo) de una organización con la finalidad de hurtar dinero.
Los deepfakes son instrumentos potenciales para transformar la opinión pública. En 2020 cualquier joven puede visualizarse como un anciano con la herramienta FaceApp. Y seguramente, la inteligencia sintética, en pocos años más, estará en capacidad de crear vídeos verosímiles de algunos datos extraídos de alguna red social que podrán engañar a muchos usuarios incautos.
La realidad de este instante es que se requieren muchas imágenes, grabaciones de voz y datos fisonómicos de una persona para que los algoritmos hagan la síntesis realista del mismo, pero eso va a cambiar dentro de poco tiempo.
Al igual que con la FaceApp, se contará con una aplicación en el móvil para hacer deepfakes de forma sencilla. El panorama que se advierte pone en tela de juicio la frase “ver para creer”, pues la diferencia entre lo falso y lo verdadero no podrá ser detectada a simple vista.
Ya la tecnología existente ha demostrado su potencial. Y solo será cuestión de tiempo para que quienes se mueven de manera fraudulenta en el sector de la pornografía en red, por ejemplo, exploten la identidad de las celebridades sin su autorización. Además, la ciberdelincuencia tendrá más recursos para timar a sus potenciales víctimas.
La investigación y la consecuente formación en ciberseguridad tienen el reto de la formación continua de expertos en el área, a la misma velocidad que se desarrollan las nuevas tecnologías, pensadas en principio para hacer la vida mejor, pero que inevitablemente tienen sus riesgos en las manos equivocadas.
Sin lugar a dudas, las nuevas generaciones humanas son más aptas en el manejo, a nivel de usuario, de las apps de sus móviles y ordenadores, pero al mismo tiempo son y serán más escépticas ante los contenidos que consumen. Y esta incredulidad, que propician ya los deepfakes, deberá contrarrestarse con ultra-detectores de contenidos audiovisuales falsos, de fácil descarga en los teléfonos móviles.
Corresponde a las compañías de redes sociales desarrollar sistemas anti-fraude partiendo de la misma inteligencia sintética, porque gracias a su gran popularidad se han convertido en un nicho ideal para el cibercrimen.
Otro capítulo importante en la aplicabilidad de la tecnología Machine Learning (ML) es el reconocimiento facial. La puesta en práctica a nivel masivo de este método de identificación ha disparado las alarmas de los protectores de la privacidad y la seguridad. En Estados Unidos de América se ha visto envuelto en algunos desaciertos en la identificación de criminales. No obstante, la tecnología de reconocimiento de la identidad de personas, basada en la geometría de la cara, tiende a expandirse (en las principales metrópolis), en conjunto con la instalación de millares de cámaras de vigilancia, dispuestas en lugares públicos.
El reconocimiento del rostro supone un método relativamente sencillo para saber quién y dónde ha estado cualquier persona. De hecho, está siendo usado como sistema de control de acceso a dispositivos electrónicos personales y empresariales, además de ser parte de infraestructuras de limitación de acceso físico en instituciones públicas y privadas.
Ahora bien, la base de datos generada por este tipo de reconocimiento biométrico es sumamente sensible, por lo que en manos equivocadas las consecuencias negativas son bien importantes. También, el método de escaneo facial puede usarse con una finalidad contraria a la de las plataformas de seguridad. Esta información, si es alterada con los recursos que provee el Aprendizaje Automático, podría implicar consecuencias inimaginables.
Es por ello que las soluciones deberán ser preventivas antes que paliativas. Debido a que los algoritmos inteligentes pueden aprender, usados por piratas informáticos, son instrumentos altamente eficaces. El meollo del problema es saber cómo se producirán los ataques, dilucidar las capacidades de la técnica de aprendizaje profundo, antes que se produzcan los mismos.
La criminalidad en red tiene básicamente las mismas apetencias que la hallada en las ciudades; el robo de bienes y dinero sin mucho esfuerzo y con impunidad. Sin embargo, también habría que poner el ojo en los atacantes que tienen tras de sí grandes recursos estatales o privados, lo que supone la implementación de las últimas tecnologías de intrusión y manipulación digital maliciosa.
La piratería informática con fines ideológicos (que puede influir el aspecto económico), control de opinión pública, etc., es un problema real, aunque el usuario común no la perciba.