microsoft se ha asociado con para ayudar a eliminar imágenes íntimas no consensuadas, incluidas las deepfakes, de su motor de búsqueda Bing.
Cuando una víctima abre un “caso” con StopNCII, la base de datos crea una huella digital, también llamada “hash”, de una imagen o video íntimo almacenado en el dispositivo de esa persona sin necesidad de cargar el archivo. Luego, el hash se envía a los socios de la industria participantes, quienes pueden buscar coincidencias para el original y eliminarlas de su plataforma si infringe sus políticas de contenido. El proceso también se aplica a los deepfakes de una persona real generados por IA.
Varias otras empresas de tecnología acordaron trabajar con StopNCII para eliminar imágenes íntimas compartidas sin permiso. Meta la herramienta y la utiliza en sus plataformas Facebook, Instagram y Threads; Otros servicios que se han asociado con el esfuerzo incluyen Reddit, Snap, Niantic, Onlyfans, PornHub, Playhouse y Redgifs.
Ausente en esa lista está, extrañamente, Google. El gigante tecnológico tiene su propio conjunto de para reportar imágenes no consensuadas, incluyendo . Sin embargo, no participar en uno de los pocos lugares centralizados para eliminar la pornografía de venganza y otras imágenes privadas posiblemente impone una carga adicional a las víctimas para que adopten un enfoque gradual para recuperar su privacidad.
Además de esfuerzos como StopNCII, el gobierno de EE. UU. ha tomado algunas medidas este año para abordar específicamente los daños causados por el lado deepfake de las imágenes no consensuadas. Pidieron una nueva legislación sobre el tema y un grupo de senadores tomó medidas para proteger a las víctimas con la propuesta presentada en julio.
Si cree que ha sido víctima de intercambio de imágenes íntimas no consensuadas, puede abrir un caso con StopNCII y google ; Si es menor de 18 años, puede presentar un informe ante el NCMEC. .