La sombra de la IA – De la manipulación de información a la manipulación de la realidad

Por: Esteban Barquera – Primus Draconis

Me he dado cuenta que las personas han dejado de tener expectativas y metas profundas en la vida; es más, les es difícil construir una identidad e ideología propia, y lamentablemente ya hay hasta casos de ajustar preferencias con tal de sentirse parte de un movimiento o comunidad.

Esto se debe a una tendencia natural del ser humano y sus experiencias transitorias que cambian rápidamente, que, pese a la hiperconexión, la gente se desvincula personalmente, prefiriendo evitar las relaciones sustanciosas, pero está cada vez más ávida de vivir y mostrar experiencias a corto plazo. La velocidad de este proceso genera dos problemas principales.

El primero sería la incertidumbre sobre el futuro y el segundo la evasión de responsabilidad. Pero, ¿esto es una decisión?

No es nuevo saber que somos manipulados todo el tiempo, por los medios, familia, el estado, el marketing; pero este tipo de manipulación toma tiempo y requiere una estrategia, que, a base de prueba y error, se adapta a los tiempos, publico, país, generación, etcétera.

¿Pero qué pasa si necesitas que esa manipulación cuartee los derechos de las personas de una manera más rápida y eficiente?

Utilizas nuevas tecnologías que tienen gran aceptación socialmente, sobre todo porque no hay entendimiento básico de cómo funciona. Sobre todo, porque se nos olvida que la tecnología es desarrollada por empresas, que tienen objetivos de unos cuantos y muy difícilmente están dirigidos en el bien común o el bien de minorías o comunidades vulnerables.

También solemos perder de vista que estas tecnologías están en desarrollo e incluso las compañías que las desarrollan se han encontrado con resultados inesperados. Este es el caso de la IA, que como ya he mencionado en otros textos, este título que ostentan, aún están muy lejos para que les encaje por completo. Sin embargo, nos ha sorprendido el tremendo potencial que tiene lo poco que se nos ha permitido probar. Y se va de a poco encontrando estas cuestiones que atender cuando ya hay una interacción con humanos.

Desde casos curiosos de chatbots, que “sienten” una conexión con la persona que los está cuestionando, hasta cuestiones no tan graciosas como los discursos de odio, o la conclusión a la que casi siempre llegan cuando se les pregunta cómo solucionar los problemas humanos, y su respuesta muy a la Skynet que el mejor camino o es su destrucción o la esclavitud del ser humano.

Pero lejos del riesgo latente que un día una IA despierte de mal humor y decida evaporarnos lanzándonos misiles nucleares; ya tenemos problemas que estamos muy a tiempo de atender. Como por ejemplo el caso Pierre, un joven que se quitó la vida a raíz de una relación que mantuvo con Eliza (Chatbot), la cual le hizo dudar de su realidad llevándolo a un estado de inestabilidad, que desemboco en su trágico final.

Estos millones de conversaciones que se tienen con estos modelos, han ido rebelando la inestabilidad humana en múltiples aspectos de nuestra vida, incluso que somos seres sumamente susceptibles a la manipulación.

Esto es riesgoso, ya que, si no se comienzan a regular lo que las empresas pueden hacer con esta información, es cuestión de tiempo que, sin darnos cuenta, pensemos, compremos, vivamos, como ellos decidan que debemos de hacerlo. Ya vivimos fuertemente determinados por el contenido que vemos, el cual es elegido por los algoritmos.

¿que pasaría si las empresas que controlan el desarrollo de estas tecnologías deciden que una agenda, ideología, religión o forma de gobierno necesita posicionamiento? Bien entonces podrían lanzar respuestas a modo, para enaltecer o agrandar el valor de unas sobre otras o incluso denotar riesgos de otras tantas para que las personas que lean la información se vean propicias a tomar sus decisiones en función de estas respuestas.

Así con cada decisión que tomemos, entonces poco a poco todos estaremos moldeados conforme a los intereses hegemónicos, más que de los personales; esto lo podemos ir viendo en cosa como la normativa de lo políticamente correcto, la información ya está sesgada en el momento que se le insertan estas cuestiones morales, dejándonos en estado de susceptibilidad para insertar estas ideas. O incluso se presta para modificar obras literarias o artísticas para que se ajusten más a lo que en estos tiempos consideramos correcto, con lo cual probablemente se acabe con la originalidad del autor, el mensaje que pretendía dar, violando el derecho cultural de todos.

También al privilegiar el discurso abreviado, no la reflexión que conduce a él, irá diluyendo la diversificación de pensamiento, ya que solo se buscará almacenar datos y mejorar nuestra capacidad epistemologíca de conocer la esencia de las cosas.

¿Pero que pasara cuando la censura llegue a nuestra percepción de la realidad?

Estas herramientas tecnológicas están experimentando una rápida evolución y ahora incluso pueden ser utilizadas en tiempo real. Con potentes procesadores de imágenes y editores de audio, somos capaces de eliminar imperfecciones y tener un control total sobre la información que almacenamos. Sin embargo, esta capacidad no está exenta de riesgos. Los llamados Efectos Mándela, fenómenos en los que la percepción colectiva de la realidad parece alterarse, pueden ser provocados deliberadamente. Además, la manipulación de recuerdos ya no es solo una idea de ciencia ficción, sino una realidad gracias a avances en la tecnología de neurociencia. La noción de posverdad se vuelve aún más amenazante, ya que aquellos con poder pueden manipular y controlar la narrativa de los eventos a su conveniencia.

Esta situación plantea un desafío significativo para la construcción de una realidad compartida y consensuada. La proliferación de información manipulada y la capacidad de alterar la percepción de los hechos nos lleva a cuestionar la verdad misma. ¿Quién tendrá el poder de definir qué es real y qué no lo es? ¿Serán los dueños de estas tecnologías quienes controlen la versión aceptada de la verdad? Estamos enfrentando una crisis en la confiabilidad de la información, lo que socava la base misma de nuestra comprensión del mundo que nos rodea.

En última instancia, corremos el riesgo de ver mermada nuestra capacidad de imaginar, ya que la presión para conformarnos con el pensamiento convencional y el temor a ser diferentes pueden limitar nuestra creatividad. Esta situación nos lleva a una peligrosa dependencia de herramientas tecnológicas, lo que anula nuestra autonomía y capacidad de tomar decisiones propias. Es crucial reconocer que la implementación de sistemas de inteligencia artificial plantea una serie de desafíos éticos y sociales urgentes. Estos desafíos nos obligan a cuestionar la creencia errónea de que la ideología prevalece sobre los derechos individuales, recordándonos la importancia de abordar estas cuestiones con responsabilidad y ética para preservar los principios fundamentales de una sociedad justa y equitativa.

Desde sesgos algorítmicos, hasta la pérdida de control humano y la potencial discriminación, estos riesgos nos recuerdan la importancia de un enfoque ético y responsable en el desarrollo y la implementación de la IA. Es crucial reconocer que, si no se gestionan adecuadamente, estos riesgos podrían eliminar los derechos individuales y la equidad social.

Deja un comentario