runwayml pruebas ia

AI Girl Generator ¿A favor de estas aplicaciones?

Cada vez existen más aplicaciones de Inteligencia Artificial que se centran exclusivamente en la generación de imágenes o personajes femeninos

Cada vez existen más aplicaciones de Inteligencia Artificial que se centran exclusivamente en la generación de imágenes o personajes femeninos para entornos NSFW (siglas de la expresión en inglés Not safe/suitable for work).

El listado de aplicaciones no se centra solamente en la creación de imágenes de mujeres voluptuosas sino que también existen otras (ya denunciadas por personajes famosos) en las que el derecho a la propia imagen, la privacidad o la libertad de expresión se ponen en entredicho.

Considero que es esencial concienciar a la sociedad, especialmente a los entornos educativos, acerca de la existencia de estas aplicaciones. Padres, profesores y alumnos deben estar informados sobre cómo estas herramientas, en lugar de beneficiarnos, pueden tener efectos perjudiciales.

Un ejemplo: los Deepfakes

Se trata de superponer caras en otros cuerpos, provocando un efecto realista.

El Deepfake es una técnica de inteligencia artificial que permite editar vídeos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados. El resultado final de dicha técnica es un vídeo muy realista, aunque ficticio. 

El problema de los deepfakes es su tratamiento jurídico

Sin duda, si el resultado que producen en una persona es negativo, sabemos que esa acción provoca un daño y debemos evitarlo.

Aun así, el problema de la jurisdicción, con cada país tratándolo de manera diferente, a menudo dificulta la posibilidad de denunciar y, por lo tanto, de condenar. Algunos países/estados lo consideran delitos menores, otros lo sitúan cerca del derecho civil y otras veces, se aduce a que se trata de una persona que «no existe».

La criminalización de las invasiones de la privacidad personal mediante el robo de identidad debería ser más relevante en la actualidad, dada la gran cantidad de información que compartimos en Internet.

Debemos sentirnos protegidos y no amenazados.

¿Pero a quién responsabilizamos? ¿Cómo definimos y reconocemos a la víctima?

Indudablemente, si evitamos hablar de este tema y debatirlo en mesas de opinión, no lograremos avanzar, sino que parecerá como si no existiera.

El ciberacoso, el ciberbullying, el robo de identidad, la venganza digital y numerosos casos similares son conductas que se propagan a través de las redes sociales y las nuevas herramientas de inteligencia artificial.

Cada vez más, las personas comparten aspectos personales como imágenes, videos, audios y datos biométricos.

En este contexto, es crucial brindar información, especialmente en las escuelas, para concientizar que tales conductas son inadecuadas y éticamente cuestionables, además de estar sujetas a manipulación.

Aún nos enfrentamos a numerosos desafíos:

…en la lucha contra el uso indebido de la IA deben desarrollarse sistemas digitales basados también en IA que distingan imágenes reales de las manipuladas, como ya se hace con los bulos informativos (fakes news). Los sistemas de detección actuales no son capaces todavía de bloquear una deepfake fraudulenta (Deepfake malware) de manera inmediata.

Las regulaciones en estos temas deben ser implementadas de inmediato, lamentablemente, en algunos casos, ya llegamos tarde. Sin embargo, esto no debería obstaculizar nuestros esfuerzos por revertir esta situación a través de la educación, la formación y la concienciación.

Al final, lo que debe prevalecer es la educación, para ser conscientes del entorno en el que vivimos, para conocerlo y por tanto, respetarnos.

Para seguir la actualidad de las noticias más interesantes sobre robótica colaborativa e inteligencia artificial, no dudes en visitar nuestras Últimas noticias.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *