Impulsa la conciencia pública: la batalla contra los vídeos deepfake

El acelerado avance de la inteligencia artificial (IA) ha llevado a un hito sorprendente: la creación de vídeos generados por IA prácticamente indistinguibles de los creados por seres humanos. Si bien la atención se centraba en imágenes y textos realistas, los vídeos “deepfakes” ahora toman el escenario.

Incapacidad de expertos: la inquietante frontera de los “deepfakes”

En pruebas privadas, incluso expertos en IA luchan por diferenciar vídeos “fake” de grabaciones auténticas. Esto plantea un desafío significativo, ya que la tecnología está alcanzando un punto en el que los “deepfakes” pueden pasar desapercibidos incluso para los conocedores del campo.

La tecnología que permitirá la generación masiva de vídeos “deepfakes” estará disponible para el público en general a principios de 2024. Este lanzamiento masivo podría inundar las redes sociales con contenido virtualmente imposible de distinguir de los vídeos reales.

Empresas líderes en IA, como OpenAI, reconocen la urgencia de abordar este riesgo inminente. Sam Altman, CEO de OpenAI, destaca la necesidad de un modelo de uso responsable y la conciencia pública para hacer frente a los desafíos éticos y legales que surgen con la proliferación de “deepfakes“.

Colaboración crucial: un enfoque colectivo para enfrentar la amenaza

Altman subraya la importancia de la colaboración continua en la industria de la IA, incluyendo la participación activa de las redes sociales en la búsqueda de soluciones. La conciencia pública y la responsabilidad colectiva son esenciales para mitigar los riesgos asociados con el uso indiscriminado de “deepfakes”.

El potencial mal uso de los vídeos generados por IA plantea serios problemas éticos y legales, como la influencia en procesos electorales y la creación de contenido pornográfico realista con personas reales. Estos desafíos requieren una atención inmediata y soluciones efectivas.

Difusión en redes sociales: inevitabilidad y precauciones necesarias

Una vez que la tecnología de “deepfake” esté accesible al público, su presencia en las redes sociales será inevitable. La cuestión radica en cómo los usuarios pueden discernir entre contenido auténtico y “deepfakes“, especialmente cuando son utilizados con intenciones maliciosas.

En Estados Unidos, se plantea la obligatoriedad de marcas de agua en los “deepfakes” para frenar su diseminación. Sin embargo, existe la preocupación de que esta medida pueda ser fácilmente burlada por aquellos que buscan propagar maliciosamente contenido falso en las redes sociales.

Vigilancia ciudadana: la responsabilidad de identificar “deepfakes”

Con la inminente presencia de “deepfakes” en las redes sociales, los usuarios deben estar alerta y ser conscientes de la posibilidad de encontrarse con contenido manipulado. La vigilancia ciudadana se convierte en un factor clave para contrarrestar los riesgos asociados con esta tecnología.

A continuación te dejamos un video del famoso tiktoker Yi Long Ma, conocido por su similitud con Elon Musk, el multimillonario dueño de “X” (anteriormente Twitter)