El auge de la inteligencia artificial ha conseguido transformar la hoja de ruta de los gigantes tecnológicos. De hecho, también ha influido en las tradiciones de muchos países, ya que China decidió limitar el acceso a sus modelos de IA a 1.400 millones de personas durante la celebración de un examen nacional. Sin embargo, la ambición sin límites de muchos titanes del sector ha provocado que la búsqueda empiece a centrarse en obtener el modelo más inteligente de la historia, una tarea que Mark Zuckerberg persigue de forma incansable.
De esta forma, la intención de alcanzar la Inteligencia Artificial General (AGI) o incluso una “superinteligencia” ha provocado que el debate empiece a centrarse en aspectos como la capacidad de razonamiento de la IA. Sin embargo, el foco también está puesto en el CI promedio que alcanzan los modelos de IA, ya que los avances y pruebas que realizan las compañías aumentan o disminuyen este número. Por ello, una prueba pone el foco sobre este campo y te da la posibilidad de comparar tu CI con el de cualquier herramienta de inteligencia artificial.
Pon a prueba tus habilidades
Mensa Noruega propone una prueba gratuita en línea que, en resumidas cuentas, se trata de un test de CI online de 35 preguntas que tendrás que resolver en 25 minutos. Al no requerir ningún conocimiento especializado, es una buena opción para comprobar en qué rango te encuentras. Por norma general, el CI obtenido por los humanos oscila entre 85 y 145, razón por la que una puntuación superior a 130 se equipara con las altas capacidades. No obstante, cabe destacar que se trata de un juego comparativo y no de un diagnóstico profesional, aunque sí sirve como leve indicativo al tratarse de un modelo oficial de Mensa.
Para medir las capacidades de la inteligencia artificial, decidieron poner a prueba a 15 modelos de IA que se sometieron al test. Al comprobar los resultados, vieron que modelos abstractos como OpenAI o3 superaron ampliamente la media humana. Sin embargo, los modelos visuales no corrieron la misma suerte, ya que sus limitaciones en lógica abstracta les llevaron a obtener puntuaciones muy bajas (ejemplo: los 63 puntos de GPT-4o Vision):
- OpenAI o3: 135
- Claude-4 Sonnet: 127
- Gemini 2.0 Flash: 126
- Gemini 2.5 Pro: 124
- OpenAI o4 mini: 122
- Claude-4 Opus: 120
- Grok-3 Think: 112
- DeepSeek R1: 106
- Llama 4 Maverick: 105
- OpenAI o1 Pro: 102
- GPT-4.5 Preview: 99
- Bing Copilot: 86
- Mistral: 85
- GPT-4o (Vision): 63
- Grok-3 Think (Vision): 60
Aunque existen casos en los que una IA podría obtener más CI que un humano, esto no implica que sea más inteligente que los mismos, sino que es capaz de realizar el test de forma más eficiente. En la actualidad, los modelos de IA están diseñados para tareas específicas, no para replicar la complejidad integral del cerebro humano. De hecho, un CI bajo en humanos o IA no significa contar con menos capacidades, sino disponer de una forma diferente de razonar frente a un modelo de prueba limitado. Por ello, más que una demostración de inteligencia, esta es una prueba de cómo los modelos de IA están evolucionando para superar este tipo de pruebas.
Imagen principal de 3DJuegos
En 3DJuegos | ¿Cuánta energía consume cada consulta de ChatGPT? Sam Altman despeja todas las dudas al compararlo con una cucharada de agua
En 3DJuegos | Salvó a su padre con la ayuda de ChatGPT y advierte del peligro de hacer caso a la IA: “No confíes en ella”
Deja una respuesta