robot aspirador ia love death robots inteligencia artificial netflix cine glboalcobots

Si su robot aspirador está intentando matarle, pulse 3

Si su robot de limpieza del hogar está intentando matarle, pulse 3. Así comienza el capítulo 1 de la temporada 2 de Love, Death & Robots.

Si su robot de limpieza del hogar está intentando matarle, pulse 3. Así comienza el capítulo 1 de la temporada 2 de Love, Death & Robots, titulado Servicio al Cliente Automatizado.

Esta serie Love, Death & Robots de Tim Miller y David Fincher ganó el Emmy al mejor programa de animación en formato corto en 2019 y 2021.

Actualmente está disponible en la plataforma de streaming Netflix

El episodio dura apenas 13 minutos.

No existe diálogo, sino una simple sucesión de acontecimientos que como bien adelanta el titular, «si su robot intenta matarle pulse 3».

Esta escenificación sirve sin duda para presentar el miedo latente a la inteligencia artificial, a la robótica y a los nuevos dispositivos que se encuentran entre nosotros.

love death robots ia netflix

El cine, el gran precursor de la IA

La capacidad humana para convertir al robot en amigo o en asesino, se produce en apenas unos segundos.

Podemos crear rápidamente un vínculo afectivo con los robots mascota como provocar un miedo terrible sobre ellos a la altura de Terminator.

En parte, la psicología tendrá mucho que decir en nuestra nueva relación IA-humanos, que terminará convirtiéndose en una relación IA-robots.

Debemos superar los miedos de la misma manera que disfrutamos de sus beneficios.

Sin duda, el papel que está jugando la ética en las regulaciones, y la importancia que desde cualquier país quieren dotarle «de ética» a la robótica tiene un significado.

Al igual que se quiso firmar una Declaración Universal de Derechos humanos, que sabemos que por exista, no significa que se cumpla. Ahora, todos los deseos están centrados en crear un paradigma de una ética universal para el uso de la inteligencia artificial.

La roboética y la relación robot-humano

La roboética, está pensada precisamente para estudiar esa relación que vamos a dar por sentada con los robots, al cual acabaremos dotándolos de personalidad (habrá que valorar de qué tipo) y queremos que esté enfocada siempre al bien y a la ayuda.

Pero a veces, el foco suele desviarse y se acaba regulando en exceso el uso de la IA u olvidándonos de los casos prácticos necesario previos para adaptar su uso.

El enfoque de la regulación actual europea se basa en el riesgo

La regulación Europea, la Americana o la China sobre inteligencia artificial no tienen nada que ver.

A grandes rasgos, los enfoques de la IA en Europa, Estados Unidos y China reflejan las diferentes prioridades de cada país. Europa se centra en proteger los derechos fundamentales, en Estados Unidos en impulsar el crecimiento económico y en China en reforzar su control social.

Centrándonos en la normativa europea, ésta establece niveles de riesgo para los sistemas de IA:

  • Riesgo inadmisible: Se prohibirán un conjunto muy limitado de sistemas de IA que violen los derechos fundamentales, como la puntuación social, la explotación de los puntos débiles de los niños o la identificación biométrica remota en espacios públicos con fines policiales.
  • Alto riesgo: Se aplicarán requisitos obligatorios a los sistemas de IA que tengan un impacto negativo en la seguridad de las personas o en sus derechos fundamentales. Estos requisitos se refieren a la calidad de los datos, la documentación, la transparencia, la supervisión humana, la solidez, la precisión y la ciberseguridad.
  • Riesgo limitado: Se imponen obligaciones específicas de transparencia a determinados sistemas de IA, como los robots conversacionales.
  • Riesgo mínimo: Los sistemas de IA que no presenten un riesgo significativo pueden desarrollarse y utilizarse con arreglo a la legislación vigente.

La normativa tiene como objetivo garantizar la confianza en la IA y proteger los derechos fundamentales de las personas.

El futuro, por ahora, es nuestro

En cuanto a lo que nos espera. Los países continúan en la búsqueda de la regulación perfecta, duplicando autoridades de supervisión, auditorías, organismos, sellos, autorizaciones…

Sin embargo, la realidad es más rápida, y mientras piensan en cómo crear un entramado demasiado burocratizado para dentro de 2 o 3 años, las empresas y la IA ya está interactuando con el público.

Mientras tanto no sabemos hasta qué punto ya se utilizan nuestros datos para el entrenamiento de estos grandes chats conversacionales, programas «gratuitos» de generador de imágenes o resúmenes y ahí las regulaciones no tienen ninguna cabida.

En Europa, algunos expertos indican que con el RGPD podemos hacer frente a cualquier desafío que nos presente la IA. Si eso fuera cierta, la exagerada regulación sobre IA que se está creando más que una ayuda normativa, se convertiría en un negocio más asociado a la IA.

Lo que debemos recordar es que sea la tecnología que sea, los cambios que produzca o lo útil que nos pueda parecer, la contraprestación actual con la que pagaremos se llama «datos«.

Para seguir la actualidad de las noticias más interesantes sobre robótica colaborativa e inteligencia artificial, no dudes en visitar nuestras Últimas noticias.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Abrir chat
Hola 👋
¿En qué podemos ayudarte?