riesgos catastroficos globalcobots IA

OpenAI prepara su equipo para riesgos catastróficos

OpenAI quiere que contemos con los conocimientos necesarios para la seguridad de sistemas de IA y así eviten riesgos catastróficos.

OpenAI quiere asegurarse de que contamos con los conocimientos y la infraestructura necesarios para la seguridad de sistemas de IA que eviten riesgos catastróficos.

Es curioso, que OpenAI que se adelanta a temas que quizá ni siquiera nos habíamos planteado realmente (véase el ejemplo de Superinteligencia), ahora nos mencione y alerte de los riesgos catastróficos de la Inteligencia Artificial.

Esta vez incluso puedes apuntarte a un Desafío que proponen para formar su equipo de ¿»Preparación para el desastre»?

riesgos opeanAI

Algo no nos están contando claramente, si el principal jugador en este tema nos alerta de la necesidad de control, porque ya no son todo beneficios como se nos presentaron al principio de esta aventura.

Sin duda nos enfrentamos a una situación que requiere una revisión exhaustiva de nuestros controles y protocolos, especialmente cuando el actor clave en este ámbito, que es OpenAI, señala la urgente necesidad de una gestión más rigurosa.

Es evidente que los beneficios inicialmente proyectados sobre la Inteligencia Artificial deben ser evaluados críticamente, considerando las nuevas perspectivas y desafíos presentados.

El equipo que están reclutando está liderado por Aleksander Madry.

Se trata de ayudar a rastrear, evaluar, pronosticar y protegerse contra riesgos catastróficos que abarcan múltiples categorías, entre las que se incluyen:

  • Persuasión individualizada
  • Ciberseguridad
  • Amenazas químicas, biológicas, radiológicas y nucleares (QBRN)
  • Replicación y adaptación autónomas (ARA)

Esta información adquiere una relevancia superior cuando ya se mencionan amenazas químicas o nucleares.

Sin duda una información que debemos tener en cuenta y que hay que valorar teniendo en cuenta sobre qué aspectos claves centran el interés, como por ejemplo, las amenazas químicas o nucleares.

Actualmente, podríamos estar presenciando el inicio de una nueva era en la que la regulación y la libertad de uso de estas herramientas digitales requerirán un enfoque más riguroso y cauteloso.

Esto contrasta marcadamente con nuestras experiencias iniciales en Internet, las cuales podríamos comparar con un campo más abierto y sin restricciones al inicio.

Empleando un símil en esta ocasión, la Inteligencia Artificial no solo se asemeja a un vasto campo, sino también a un inmenso océano.

En este océano, nos enfrentamos a fenómenos tan disruptivos como maremotos y tsunamis (nuevas formas de aprendizaje), así como a regiones aún por descubrir (prompt engineering) y también con las enigmáticas profundidades de las fosas Marianas (‘caja negra‘ de la IA).

Para seguir la actualidad de las noticias más interesantes sobre robótica colaborativa e inteligencia artificial, no dudes en visitar nuestras Últimas noticias.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *