Anthropic todavía no sabe cómo funcionan sus IA, revela su CEO

El funcionamiento de los modelos de inteligencia artificial es tan asombroso como misterioso. Y Dario Amodei, CEO de Anthropic, la empresa responsable de Claude, ha sido bastante franco respecto de lo mucho que todavía les queda por aprender. A través de su blog, el empresario reconoció que aún no saben cómo funcionan sus IA, y que el público hace bien en alarmarse por ello.

En un extenso escrito, Amodei se refirió a los veloces avances que se logran día a día en el campo de la inteligencia artificial generativa, y a la necesidad de enfocarse en un punto crucial de cara al futuro: la interpretabilidad de esos sistemas. De acuerdo con el jefe de Anthropic, es necesario que las empresas se enfoquen en comprender cómo es el funcionamiento interno de sus IA antes de que se vuelvan extremadamente poderosas.

«Las personas ajenas al sector suelen sorprenderse y alarmarse al descubrir que no comprendemos cómo funcionan nuestras propias creaciones de IA. Y tienen razón en estar preocupadas: esta falta de comprensión no tiene precedentes en la historia de la tecnología», explicó el susodicho.

Pese a que sus comentarios pueden sonar innecesariamente alarmistas, el líder de Anthropic explica que ya se están logrando avances muy importantes en la búsqueda de la interpretabilidad de los modelos de IA. De todos modos, reconoce que la inteligencia artificial generativa está bastante más avanzada que cualquier intento de comprensión de su funcionamiento interno. Y que es por ello mismo que todas las empresas de la industria deben pisar el acelerador en sus esfuerzos por crear el equivalente a una «resonancia magnética de la inteligencia artificial».

Anthropic quiere comprender cómo funcionan los modelos de IA

Anthropic quiere comprender cómo funcionan los modelos de IAAnthropic quiere comprender cómo funcionan los modelos de IA

A primera vista puede sonar ilógico que empresas como Anthropic, OpenAI o Google no sepan cómo funcionan las IA generativas que ellos mismos crean. Sin embargo, Dario Amodei tiene una explicación bastante contundente sobre por qué ocurre esto:

«Cuando un sistema de IA generativa realiza una acción, como resumir un documento financiero, desconocemos, a un nivel específico o preciso, por qué toma ciertas decisiones: por qué elige ciertas palabras en lugar de otras, o por qué ocasionalmente comete un error a pesar de ser generalmente preciso.

Como suele decir mi amigo y cofundador Chris Olah, los sistemas de IA generativa se desarrollan más que se construyen: sus mecanismos internos son ‘emergentes’ en lugar de estar diseñados directamente. Es similar al cultivo de una planta o una colonia bacteriana: establecemos las condiciones generales que dirigen y moldean el crecimiento, pero la estructura exacta que emerge es impredecible y difícil de comprender o explicar.

Al observar el interior de estos sistemas, observamos vastas matrices de miles de millones de números. Estas, de alguna manera, computan tareas cognitivas importantes, pero no resulta evidente cómo lo hacen exactamente. Muchos de los riesgos y preocupaciones asociados con la IA generativa son, en última instancia, consecuencias de esta opacidad, y serían mucho más fáciles de abordar si los modelos fueran interpretables».

Dario Amodei, CEO de Anthropic

El jefe de Anthropic estima que la interpretabilidad de las IA más avanzadas podría estar lista dentro de los próximos 5 a 10 años. Sin embargo, considera que se necesita de mucho trabajo y dedicación para lograrlo. Amodei sostiene que las empresas deben destinar más recursos a la interpretabilidad, y hasta hizo un llamado público a rivales como OpenAI y Google para que le presten más atención a esa área.

«La interpretabilidad recibe menos atención que el diluvio constante de lanzamientos de modelos, pero podría decirse que es más importante», explicó. Asimismo, instó a los gobiernos a implementar reglas flexibles que fomenten la investigación de la interpretabilidad de los modelos de IA. Y propuso que usen las restricciones de exportación para darle tiempo a estas investigaciones a avanzar lo suficiente para alcanzar a los modelos más potentes.

Anthropic ya ha presentado avances importantes en materia de interpretabilidad. En marzo pasado, investigadores revelaron sus descubrimientos al tratar de identificar cómo «piensan» sus IA. No obstante, aún queda mucho trabajo por hacer para identificar todo lo que está dentro de esa caja negra. Ya veremos cómo avanza esta iniciativa.

Ver fuente

Related Post