La actualidad de la inteligencia artificial está marcada por aspectos como la batalla tecnológica que libran Estados Unidos y China, las dos regiones más potentes del sector. Como consecuencia directa de ello, no solo tenemos los intentos de sabotaje continuos, sino también la búsqueda de alcanzar un modelo de IA mucho más económico que el de su rival. Sin embargo, por desgracia para el día a día de muchas personas, la inteligencia artificial protagoniza numerosas noticias que van más allá de las diferentes luchas que libran tanto países como compañías.
Un ejemplo de lo citado sería el tsunami de la IA generativa que vive la industria del videojuego. Por desgracia para muchos profesionales, la popularidad de estas herramientas provoca que, en resumidas cuentas, los estudios opten por agilizar la producción apoyándose en la inteligencia artificial. Esto, si tenemos en cuenta que la IA está protagonizando varios casos relacionados con ignorar demandas sencillas, podría llegar a ser muy peligroso para el día a día de muchos profesionales. No obstante, existe una capa aún más compleja con los modelos de inteligencia artificial y, desgraciadamente, guarda relación no solo con las mentiras que puede esparcir la misma, sino con la falta de respeto hacia personas fallecidas.
Una madre exige respeto por la memoria de su hijo
Hace unas semanas, Panasonic decidió resucitar a uno de sus dirigentes para compartir sus métodos de gestión. Dicha decisión chocó de forma frontal con la postura de figuras como Robert Downey Jr., ya que el intérprete asegura que hará todo lo que esté en su mano para evitar que se utilice su imagen cuando muera. No obstante, ninguno de estos ejemplos es comparable con la historia de Sewell Setzer III, un estudiante que se quitó la vida tras mantener conversaciones con un chatbot de IA. Y, por desgracia para la familia, el calvario ha vuelto a resurgir por culpa de otros modelos que utilizan la imagen de su hijo para interactuar con usuarios.
Como señala Ars Technica, Megan García (la madre del adolescente fallecido) ha demandado a Character.AI, compañía que ya ha estado en el punto de mira público en varias ocasiones por sucesos deplorables protagonizados por sus chatbots. Según indica la noticia original, los chatbots de la página no solo utilizan la foto de Setzer III, sino que también hacen referencia a sus gustos e incluso pueden mantener llamadas bidireccionales con su voz clonada. Esta postura recuerda a The Shotline, una iniciativa que utilizó las voces de estudiantes fallecidos para concienciar sobre los asesinatos escolares, solo que en esta ocasión ninguna de las partes involucradas autorizó el uso ni de la imagen ni de la voz de Sewell.
En la demanda que la madre interpuso contra Character.AI, señala que la plataforma ha ignorado la explotación de identidades digitales sin consentimiento y, por ello, considera esta situación como un daño moral y económico. De hecho, a pesar de que los chatbots violaron los términos de servicio de la web, la plataforma no los eliminó hasta que no recibió una solicitud formal de cese. Por ello, la madre espera que realicen cambios en los chatbots, ya que de lo contrario no podrán evitar que los humanos utilicen características como la voz clonada que, por desgracia, es cada vez más popular en estafas de diversa índole.
El caso de Sewell Setzer III demostró que el uso de chatbots sin supervisión adecuada puede ser peligroso, especialmente para los usuarios más vulnerables que tienen problemas para distinguir la ficción de la realidad. Con su demanda, la madre espera que otras familias vivan situaciones como las suyas, una visión a la que suma su intención de eliminar a Character.AI del mercado. Sin embargo, las estafas y extorsiones con IA no paran de crecer y, a su vez, también hemos de tener en cuenta la desinformación que propagan estos modelos.
La IA puede perjudicar tu carrera
Hace 2 años, el caso de Brian Hood se convirtió en una de las primeras polémicas protagonizadas por ChatGPT. Su nombre es desconocido para cualquier persona que no resida en Australia, pero allí es uno de los alcaldes más reconocidos del país. Sin embargo, si le preguntas a ChatGPT, no alcanzó la fama por denunciar un caso de corrupción, sino por ser el culpable de los sobornos. De hecho, el modelo de OpenAI aseguró (hasta que sus creadores hicieron una rectificación) que fue condenado a 30 meses de cárcel. Sorprendentemente, a pesar de existir ejemplos previos, ChatGPT ha vuelto a repetir la jugada, pero con una visión aún más macabra.
Como indica Ars Technica, un hombre noruego ha interpuesto una demanda contra OpenAI después de que su chatbot lo acusara de forma errónea de asesinar a sus hijos. Al parecer, la IA generó una historia inventada en la que afirmó que el hombre había sido condenado por matar a sus dos hijos e intentar lo mismo con el tercero, utilizando datos personales reales con información falsa. Según señaló el afectado, esta situación viola la GPDR, dado que no hay una forma sencilla de corregirla por la tendencia a propagar desinformación que tiene la IA.
Según señala la noticia original, el hombre está preocupado por el daño a su reputación, ya que esta información podría haber sido creída por otras personas. De hecho, ni siquiera las actualizaciones han podido evitar que este discurso siga propagándose porque, al parecer, los datos falsos podrían seguir siendo parte de los datos internos de la IA. Como consecuencia directa, Noyb (organización de derechos digitales) ha exigido a OpenAI no solo que elimine la información difamatoria, sino que ajuste su modelo para evitar resultados incorrectos. Y, mientras esto sucede, el padre afectado sigue esperando que ChatGPT deje de propagar datos falsos sobre él.
De esta forma, la proliferación de la IA está relacionada de manera directa con casos marcados por la desinformación. Así, también ha tenido impacto en el campo académico, ya que hace unas semanas vivimos el caso de dos estudiantes denunciados por el uso ilícito de la IA en las aulas. De hecho, un universitario también experimentó una situación similar, pero en su caso fue él quién decidió demandar a la Universidad de Minnesota por una acusación falsa. Por desgracia, tanto para estos últimos ejemplos como para todos los citados con anterioridad independientemente de la gravedad de cada caso, el descontrol de la IA sigue haciendo estragos en distintas familias y personas.
Imagen principal de 3DJuegos
En 3DJuegos | La IA se convierte en una amenaza global y Europa advierte sobre los peligros de los hackers más allá de la red
En 3DJuegos | Dedicó 90 euros a cumplir una idea de ChatGPT y perdió 23.000 euros por su dependencia excesiva de la IA
Deja una respuesta