Desinformación y Fake News están en la naturaleza humana

  • 21 febrero, 2020
  • Por Carlos Guadián

La #desinformación deliberada y las RRSS son solo una parte del problema, nuestro sentido de percepción errónea no tiene una sola fuente. Se basa en lo que se nos dice, pero también en cómo pensamos.

Nuestro enfoque natural en la información negativa.

Las investigaciones muestran que la gente a menudo malinterpreta la realidad. Y aunque Internet nos brinda un acceso sin precedentes a la información, hay pocas pruebas de que estemos mejor informados gracias a ella.

La desinformación deliberada y los medios de comunicación social son solo una parte del problema, pero nuestro sentido crónico de percepción errónea no tiene una sola fuente. Se basa en lo que se nos dice, pero también en cómo pensamos.

Uno de nuestros sesgos más importantes es nuestro enfoque natural en la información negativa.

Aunque no estamos más equivocados de lo que lo estuvimos en el pasado, la certeza de nuestras percepciones erróneas está alimentando una mayor polarización.

Un concepto para revisar en más profundidad es agnotologia: es el estudio de la ignorancia o duda culturalmente inducida, especialmente a la publicación de datos científicos erróneos o tendenciosos.

En este ámbito, gracias a Futurism pudimos llegar a Not Real News que como su nombre indica es un sitio de FakeNews. La clave es que son generadas de manera automática mediante IA. Y aunque sea una web demo de Big Bird, una empresa que vende la herramienta para ayudar a periodistas, da que pensar.

En Not Real News los contenidos son bastante realistas y no se etiquetan como falsos, lo que puede llevar a engaño si se comparten. Por ejemplo, la noticia de un supuesto ataque de Rusia a la mayor base aérea militar en Turquía.

Pero ¿Para quién se ha diseñado realmente esta herramienta? ¿Puede ser parte de una toolbox para generar FakeNews? Si presuponemos que un periodista ya es capaz de escribir por si mismo, con esta herramienta perdería el control de lo que cuenta. Sería la IA la que decide lo que explicar. Por lo tanto, quién la domine (la IA), dominará el relato de la realidad. Ya lo utiliza Daily Los Angeles Tribune.

Lo que si que nos queda claro es que la IA domina nuestro ecosistema de información. Si dejamos su desarrollo solo al mercado, a la política, o solo a aquellos con poder, terminaremos creando un entorno de información distópico que ignora la libertad de expresión e interfiere dramáticamente con la democracia.

La supresión del discurso (no aprobado por IA) de un grupo permite otro tipo de discurso, que podría ser políticamente o incluso físicamente peligroso para varios grupos de ciudadanos.

La habilitación de filtros de IA plantea un peligro para el discurso político online ¿Quién los codifica? ¿Quién decide qué aprobar o no? ¿Son las empresas las que tienen que decidirlo? ¿Los gobiernos? ¿Los tribunales? ¿Por presión de trolls y bots?

Un buen ejemplo es que Google redibuja los límites en los mapas dependiendo de quién esté mirando. En The Washington Post explican como la empresa de Silicon Valley altera los mapas bajo presión política. Esta situación ¿Refleja en sus mapas una geopolítica compleja? y la realidad ¿puede llegar a ser diferente para cada usuario?

Lo que está claro es que los DeepFakes son peligrosos si se utilizan para desinformar, pero ¿pueden ayudar, en positivo, en una campaña política? Parece que si, Manoj Tiwari se alió con Ideaz Factory para crear campañas positiva utilizando deepfakes.

Compartir

Volver arriba
  • Contacta

    ideograma
    Fàbrica Lehmann
    c/ Consell de Cent 159
    08015 Barcelona
    Cómo llegar

    info@tecnopolitica.org

  • Síguenos en