OpenAI ha identificado una serie de intentos en los que sus modelos de IA se utilizaron para generar contenido falso, incluidos artículos extensos y comentarios en redes sociales, con el objetivo de influir en las elecciones, dijo el fabricante de ChatGPT en un informe el miércoles.
Los ciberdelincuentes utilizan cada vez más herramientas de inteligencia artificial, incluido ChatGPT, para ayudar en sus actividades maliciosas, como crear y depurar malware y generar contenido falso para sitios web y plataformas de redes sociales, dijo la startup.
En lo que va del año, la compañía ha neutralizado más de 20 intentos de este tipo, incluido un conjunto de cuentas ChatGPT que se utilizaron en agosto para producir artículos sobre temas como las elecciones estadounidenses, según la compañía.
También prohibió en julio varias cuentas ruandesas, que servían para generar comentarios sobre las elecciones en ese país para su publicación en la red social X.
Ninguna de las actividades que intentaron influir en las elecciones globales atrajo una participación viral o audiencias sostenibles, añadió OpenAI.
Existe una creciente preocupación por el uso de herramientas de inteligencia artificial y sitios de redes sociales para generar y propagar contenido falso relacionado con las elecciones, especialmente ahora que Estados Unidos se prepara para las elecciones presidenciales de noviembre.
Según el Departamento de Seguridad Nacional de Estados Unidos, Estados Unidos ve una amenaza creciente por parte de Rusia, Irán y China que intentan influir en las elecciones del 5 de noviembre, incluido el uso de inteligencia artificial para difundir información falsa o divisiva.
OpenAI consolidó su posición como una de las empresas privadas más valiosas del mundo la semana pasada tras una ronda de financiación de 6.600 millones de dólares.
ChatGPT tiene 250 millones de usuarios activos semanales desde su lanzamiento en noviembre de 2021.