cuenta maliciosas openai

OpenAI ya cancela cuentas maliciosas

Este mes desde OpenAI nos traen novedades en cuanto a cancelación de cuentas maliciosas y nuevas funcionalidades.

Este mes desde OpenAI nos traen novedades en cuanto a cancelación de cuentas maliciosas y nuevas funcionalidades.

OpenAI ha identificado cuentas asociadas a actores maliciosos y procedió a su cancelación.

Ponen en conocimiento que se desarticularon a «5 Actores Maliciosos» afiliados a estados:

  • 2 amenazas de China: Charcoal Typhoon y Salmon Typhoon.
  • 1 amenaza de Irán: Crimson Sandstorm.
  • 1 amenaza de Corea del Norte: Emerald Sleet.
  • 1 amenaza de Rusia: Forest Blizzard.

En el blog de Microsoft se detalla toda la información relacionada con la investigación sobre amenazas emergentes en la era de la IA.

Tanto para OpenAI como para Microsoft, es esencial divulgar estos hallazgos para revelar y poner en evidencia los primeros indicios de uso indebido que se detectan.

La investigación muestra que los actores de amenazas utilizan la tecnología LLM como una herramienta de productividad ofensiva.

La asociación entre Microsoft y OpenAI tiene como objetivo asegurar el uso seguro y responsable de tecnologías de IA como ChatGPT

Todas estas noticias ponen el foco en la necesidad de adoptar estándares éticos para proteger a la comunidad del mal uso potencial.

Microsoft anuncia la necesidad de cumplir con la «Orden ejecutiva sobre Inteligencia Artificial segura y fiable» – White House’s Executive Order on AI 

Principios rectores de IA para Microsoft

  1. Identificación y acción contra el uso malicioso de IA por parte de actores de amenazas.
  2. Notificación a otros proveedores de servicios de IA.
  3. Colaboración con stakeholders para intercambiar información sobre el uso de IA por actores de amenazas,
  4. Transparencia sobre las acciones tomadas bajo estos principios.

Microsoft y OpenAI protegen conjuntamente las plataformas de IA

Mediante la monitorización de los actores de amenazas, el uso de la autenticación multifactor (MFA), el establecimiento de defensas basadas en el modelo Zero Trust y el intercambio continua de información sobre amenazas entre ambas plataformas, se busca reforzar significativamente la seguridad.

Se trata de sentar las bases para un enfoque múltiple de la seguridad de la IA.

Para seguir la actualidad de las noticias más interesantes sobre robótica colaborativa e inteligencia artificial, no dudes en visitar nuestras Últimas noticias.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *