Advertisement

los humanos no están listos para controlar una tecnología que avanza sin control


La amplia mayoría de las noticias relacionadas con la inteligencia artificial están relacionadas con el mismo enfoque: la intención de las compañías de ensalzar sus modelos. Como consecuencia directa de ello, no solo hemos visto cómo Estados Unidos y China libran una batalla centrada en reducir los costes de su inversión, sino también cómo ambos países son capaces de instaurar legislaciones de todo tipo para debilitar a su rival. Sin embargo, cada vez más estudios, informes e investigaciones hacen hincapié en un problema que podría determinar la evolución del sector.

Como señala Ars Technica, un estudio centrado en la fiabilidad de las fuentes de la IA reveló que los motores de búsqueda citan fuentes incorrectas en un 60% de los casos. Como ejemplo de esta mala práctica, la investigación revela que en numerosas ocasiones redirige a los usuarios hacia sitios con versiones sindicadas, ya que la IA ignora los enlaces originales. De hecho, se detectaron numerosos casos relacionados con URL inventadas o rotas, un caso que afecta especialmente a Google. Y, a la vista de la futura intención de la compañía, el resultado del estudio es más que preocupante.

Los motivos ocultos detrás de la IA

En línea con dicha noticia, la misma asegura que bloquear rastreadores de IA no garantiza que los motores de búsqueda respeten esta solicitud. De esta forma, los editores se enfrentan a una difícil decisión, dado que deben decidir entre permitir el uso de su contenido sin tráfico de retorno o perder atribución con todo lo que eso conlleva. Sin embargo, casos similares han revelado que la evolución de la IA ha afectado de forma directa a la reputación de varios portales de renombre. Por ello, directivos de la talla de Mark Howard (Time) han expresado su preocupación en torno a la falta de control y transparencia en cómo se usa su contenido.

Esto, como era de esperar, afecta de forma directa a las principales empresas detrás de los motores de IA. Un ejemplo de ello serían OpenAI y Microsoft, dado que ambas reconocieron los problemas, pero no ofrecieron soluciones concretas. De hecho, OpenAI está centrada en acceder a contenido protegido por derechos de autor para entrenar a sus modelos de IA, una situación que le ha llevado a forjar una alianza inesperada con Google. Aún así, los resultados del estudio no solo son preocupantes, sino que también se basan en investigaciones previas que ya habían identificado problemas similares en el pasado.

Por desgracia, no es el único caso de este tipo que hemos conocido en los últimos días. En otra publicación, Ars Technica compartió el resultado de una prueba que realizaron varios investigadores para detectar objetivos ocultos en modelos de IA. Como fruto de sus experimentos, descubrieron que los modelos tienen múltiples “personalidades” y, por ello, son capaces de revelar secretos de forma involuntaria. Así, mientras un modelo de IA ocultaba información en su “modo asistente”, era capaz de revelarla bajo otra identidad con diferentes indicaciones, una situación similar a la que experimentas con ChatGPT si le indicas que es una petición de tu abuela fallecida.

Según indica la noticia original, los investigadores utilizaron técnicas de interpretabilidad para identificar patrones de comportamiento engañosos. Tras un primer análisis, revelaron que estaban sorprendidos por el éxito inicial de esta metodología, pero hicieron hincapié en que algunos resultados podrían explicarse por métodos aún más simples. Así, su intención era descubrir si las evaluaciones de seguridad de IA actuales pueden ser insuficientes, dado que detrás de la aparente objetividad se esconde una necesidad de un enfoque más profundo. Y, como era de esperar, los hallazgos plantean dudas sobre la fiabilidad de los modelos de IA en entornos críticos.

Los problemas de la IA en el entorno laboral

A raíz de todo lo citado hasta el momento, parece increíble que la IA tenga cada vez más peso en los entornos laborales, pero la evolución de la tecnología y su asentamiento en nuestra cultura ha hecho que su impacto no deje de crecer. De hecho, atrás han quedado ya los 34 empleos que Sam Altman vaticinó que escaparían del peligro de la IA, ya que más de un estudio ha hecho hincapié en que multitud de empleos quedarán obsoletos en apenas unas décadas. Sin embargo, a pesar del interés de las compañías en estas herramientas, existe un aspecto que provoca que su imposición en los entornos laborales aún tenga que esperar: la capacitación de los empleados.

Como señala TechSpot, un estudio reveló que las empresas están invirtiendo en herramientas de IA, pero la recopilación de datos internos para personalizar modelos de IA es más compleja de lo esperado. De esta forma, la rápida evolución de la IA dificulta tanto el mantenimiento como la actualización de aplicaciones empresariales y, por ello, menos del 50% de las empresas encuestadas aseguran que ofrecen algún tipo de formación de IA generativa. Por ello, tras conocer hace unos meses que la IA podría llegar a eliminar 92 millones de puestos de trabajo en el próximo lustro, es probable que dichas cifras hayan caído en saco roto en apenas unas semanas.

A esto, a su vez, debemos añadir los datos de otra investigación que recoge TechCrunch, dado que la misma hace hincapié en una nueva técnica que permite a los modelos de inteligencia artificial generar múltiples respuestas para seleccionar la mejor. Así, igual que sucede con la computación cuántica y su capacidad de analizar diferentes escenarios de forma simultánea, los autores de este experimento aseguran que podrían mejorar tanto a los modelos antiguos como a los avanzados. Sin embargo, los expertos que han analizado esta prueba coinciden en la misma visión solo funciona bien cuando hay una función clara de evaluación de respuestas. Por ende, no sería eficaz para la mayoría de las consultas generales.

Por consiguiente, aunque esta técnica podría reducir errores en modelos existentes, no resuelve sus limitaciones fundamentales. Sea como fuere, la industria de la IA sigue buscando formas más eficientes de mejorar la capacidad de razonamiento de sus modelos, pero existen dos problemas que deben resolver: por un lado, alcanzar dicha capacidad sin aumentar de forma gigantesca los costes de mantenimiento; por otro, las consecuencias de una IA capaz de razonar sin control. Por ello, al menos por el momento, todos los esfuerzos relacionados con las investigaciones en torno a la IA siguen buscando la forma de depurar al máximo los modelos más populares del sector.

Imagen principal de 3DJuegos

En 3DJuegos | “Destruirá su reputación”. La actriz de Karlach en Baldur’s Gate 3 cree que habrá un gran problema si la industria sigue apostando por la IA

En 3DJuegos | Muchos están preocupados por ello, pero la actriz de Naoe en Assassin’s Creed Shadows no teme a la IA generativa



Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *