Desde su lanzamiento, a fines del año pasado, ChatGPT ha revolucionado el mundo, permitiendo responder dudas sobre un tema en particular o redactar textos con un nivel alto de detalles.

La gran prueba de su impacto es que, tan solo dos meses después de su lanzamiento, consiguió un récord de 100 millones de descargas, aunque este fue recientemente superado por Threads, que lo alcanzó tan solo en una semana.

Pero, más allá de las bonanzas de esta aplicación de Inteligencia Artificial (IA), o de otras como Claude, su desarrollo también comienza a generar ciertas preocupaciones al respecto.

Principalmente, a la mayoría de los países les preocupan las operaciones de desinformación que pueden generarse con estas herramientas, ya que muchos de los textos que generan poseen información incorrecta.

Como explica Christopher Mouton, “el contenido generado por IA puede exhibir un fenómeno conocido como ‘veracidad’”, frase que se utiliza para describir cómo la información puede parecer correcta. 

Esto último significa que, pese a que dicha información puede no ser correcta, si está presentada con una estructura lógica y coherente, y puede influir en cómo las personas deciden si algo es correcto o no. Esto se debe a que, mientras más fácil es procesar la información, más confiamos en ella.

Créditos: gguy/Adobe Stock

Así, una de las grandes preocupaciones en países como Estados Unidos es que algunos de sus adversarios, como Rusia, utilicen estos modelos de IA para desinformar a la población.

Este tipo de interferencias no es para nada bueno. Por ejemplo, la Comunidad de Inteligencia de Estados Unidos ha concluido que el gobierno de Rusia interfirió en las elecciones presidenciales de 2016 que fueron ganadas por Donald Trump.

Pero el problema es que, a medida que la tecnología avanza, este tipo de maniobras son cada vez más fáciles de realizar. Mouton considera que, para enfrentarse a este problema, se necesita “una estrategia integral, basada en un monitoreo atento, advertencias proactivas y colaboración internacional”.

En este sentido, insta a reforzar los avances en inteligencia artificial y aprendizaje automático, además de realizar monitoreos continuamente para la detección temprana y la neutralización de campañas de desinformación.

Por ello, en el caso de EE. UU. será muy importante generar un “sistema de advertencia sólido que promueva la verdad y exponga la desinformación al mismo tiempo”. 

Tal vez te interese: Regular la Inteligencia Artificial: una nueva preocupación para los Estados Unidos

Deja un comentario