Los investigadores de inteligencia artificial con sede en los Estados Unidos han descubierto un método automatizado y relativamente fácil para evadir las medidas de seguridad de los chatbots de inteligencia artificial, como ChatGPT y Bard, y generar contenido dañino y potencialmente peligroso. Este método de elusión implica agregar sufijos largos de caracteres a las indicaciones alimentadas en los chatbots.
A pesar de los esfuerzos de las compañías detrás de estos modelos de lenguaje grande, como OpenAI y Google, para bloquear sufijos específicos, parece que no existe una forma conocida de prevenir todos los ataques de confrontación de este tipo. Los investigadores advierten que se pueden crear múltiples ataques en un corto período de tiempo.
Las compañías de IA, incluida OpenAI, han tomado nota de la investigación y están trabajando para fortalecer sus modelos contra estos tipos de ataques. Sin embargo, los hallazgos subrayan los riesgos y desafíos que deben abordarse antes de implementar chatbots en dominios sensibles.
La investigación es importante y podría tener implicaciones en la regulación y control de sistemas de IA si continúan descubriéndose este tipo de vulnerabilidades. A medida que la inteligencia artificial se vuelve más poderosa y se utiliza en una variedad de aplicaciones, es fundamental abordar y mitigar los riesgos asociados con posibles ataques maliciosos o abusivos.
0 comentarios