Las autoridades britรกnicas estรกn emitiendo una advertencia a las organizaciones sobre los riesgos de integrar chatbots impulsados por la Inteligencia Artificial (IA) en sus operaciones comerciales. Segรบn los informes, la investigaciรณn ha demostrado cada vez mรกs que estos chatbots pueden ser engaรฑados para realizar tareas perjudiciales.

El Centro Nacional de Ciberseguridad (NCSC) del Reino Unido seรฑalรณ que los expertos aรบn no han comprendido completamente los problemas de seguridad potenciales relacionados con algoritmos capaces de generar interacciones que suenan humanas, conocidos como “modelos de lenguaje grandes” (LLMs, por sus siglas en inglรฉs).

Estas herramientas impulsadas por IA estรกn siendo utilizadas como chatbots, que algunos visualizan reemplazando no solo las bรบsquedas en internet, sino tambiรฉn el trabajo de servicio al cliente y las llamadas de ventas.

El NCSC advirtiรณ que esto podrรญa conllevar riesgos, especialmente si dichos modelos se integran en otros elementos de los procesos comerciales de una organizaciรณn.

Acadรฉmicos e investigadores han encontrado repetidamente formas de subvertir los chatbots al proporcionarles comandos falsos o engaรฑarlos para eludir sus propias salvaguardias incorporadas.

Por ejemplo, un chatbot impulsado por IA desplegado por un banco podrรญa ser engaรฑado para realizar una transacciรณn no autorizada si un pirata informรกtico estructura su consulta de manera adecuada.

“Las organizaciones que construyen servicios que utilizan LLMs deben tener cuidado, de la misma manera en que lo harรญan si estuvieran utilizando un producto o una biblioteca de cรณdigo que estuviera en fase beta”, seรฑalรณ el NCSC en una de sus publicaciones de blog, refiriรฉndose a lanzamientos de software experimentales.

“Es posible que no permitan que ese producto participe en la realizaciรณn de transacciones en nombre del cliente y, con suerte, no confiarรญan plenamente en รฉl. Una precauciรณn similar deberรญa aplicarse a los LLMs.”

Las autoridades en todo el mundo estรกn lidiando con la proliferaciรณn de los LLMs, como ChatGPT de OpenAI, que las empresas estรกn incorporando en una amplia gama de servicios, incluidas ventas y atenciรณn al cliente. Las implicaciones de seguridad de la IA aรบn estรกn cobrando relevancia, y las autoridades en Estados Unidos y Canadรก afirman haber visto a los hackers abrazar la tecnologรญa.

Una encuesta reciente de Reuters/Ipsos revelรณ que muchos empleados corporativos estaban utilizando herramientas como ChatGPT para ayudar con tareas bรกsicas, como redactar correos electrรณnicos, resumir documentos e investigar preliminarmente.

Un 10% de los encuestados afirmรณ que sus jefes prohibรญan explรญcitamente el uso de herramientas de IA externas, mientras que una cuarta parte no sabรญa si su empresa permitรญa el uso de la tecnologรญa.

Oseloka Obiora, director de tecnologรญa de la firma de ciberseguridad RiverSafe, advirtiรณ que la carrera por integrar la IA en las prรกcticas comerciales podrรญa tener “consecuencias desastrosas” si los lรญderes empresariales no introducen los controles necesarios.

“En lugar de adoptar las รบltimas tendencias de IA de inmediato, los altos ejecutivos deberรญan pensarlo dos veces”, dijo. “Evalรบen los beneficios y los riesgos, asรญ como implementen la protecciรณn cibernรฉtica necesaria para garantizar que la organizaciรณn estรฉ a salvo de daรฑos.”

Te puede interesar: ยฟCรณmo regulan la Inteligencia Artificial los distintos paรญses del mundo?

Fuente: Reuters

Deja un comentario