El físico Niels Bohr articuló con certeza la dificultad de predecir y aclaró que esta actividad se vuelve especialmente complicada cuando se trata del futuro. En tiempos de cambios tecnológicos agudos, aquella frase se potencia y el amplio alcance de la inteligencia artificial (IA) amenaza con dejar en ridículo a los vaticinios más expertos. Con tantos falsos positivos en el pasado, ni siquiera es posible asegurar que estamos ante una nueva ola tecnológica que barrerá todo lo conocido, o si los cambios siguen siendo parte del mar que conocemos desde siempre.
Los permanentes fallos sobre qué tecnologías vendrán y cuándo serán de uso público ha sido objeto de ironías, pero en el fondo vale preguntarse si se puede predecir aquello que aún no se ha inventado. En 1973 se encuestó a un grupo de expertos para predecir tecnologías. Entre ellas, anticiparon transcripción de voz y traductores automáticos para mediados de los 90, bastante antes de lo ocurrido.
Menos adecuados aún fueron sus vaticinios de que en 2010 abundarían los robots para tareas domésticas o de que los fallos judiciales serían dictaminados por un algoritmo (para la jerga de la época, un “juez computarizado”). En 2016, la encuesta se repitió y veremos cómo les va esta vez: se esperan camiones autónomos para 2029, cirugías robóticas para 2046 y programas que escriben un best seller para 2050.
El camino que tome la inteligencia artificial deberá tener atentos a los economistas. Si alguna vez se construyen émulos artificiales, tal vez mejorados, de los agentes económicos para desarrollar tareas que demandan avanzadas destrezas cognitivas, ¿qué será del agente representativo que figura en los modelos económicos? En estos esquemas, se supone que el agente representativo es un Homo economicus que combina egoísmo con ultracapacidades cognitivas, descripción que parece caracterizar mejor a una fría máquina que a un ente de carne y hueso.
Hasta ahora, los economistas se han beneficiado de la IA gracias a nuevos programas para su trabajo, y también porque produjo nuevos temas para discutir y analizar. Pero no podemos descartar que algún día la IA los reemplace, tal como ha ocurrido con otras profesiones. Un cálculo usual sugiere que, hacia 2030, entre 400 y 800 millones de ocupaciones podrían ser sustituidas por las nuevas tecnologías, y que el trabajo humano se circunscribiría principalmente a tareas de interacción física y empática con otras personas, como la asistencia social o el cuidado de enfermos. Pero, claro, nadie imagina a un economista dedicándose a estas labores, al menos no directamente. En un mundo distópico, o tal vez utópico, los economistas podrían quedar relegados simplemente a analizar las razones por las cuales han quedado desempleados.
Otras alternativas de empleo de economistas también parecen cerrarse. Ya existen fondos de inversión que se publicitan como manejados por IA. Cotidianamente se deciden otorgamientos o rechazos de crédito sobre la base de scorings automatizados. Los gigantes del negocio informático (y otros no tan grandes) explotan una vasta cantidad de datos online para identificar patrones de comportamiento para distintas variables. La pandemia interrumpió transitoriamente estas tendencias y proporcionó espacio para la profesión, pero de regreso a la normalidad quizás haya que reinventarse.
Pero a no desesperar. Aquella encuesta de 1973 preveía que hacia 1990 los modelos económicos de pronóstico iban a estar resueltos y que serían elaborados por algoritmos. Ninguna de estas dos cosas sucedió, ni de lejos. En todo caso, lo curioso es que se considere que la tarea de predecir pueda ser automatizable, y que los economistas están demasiado ocupados en sus intereses o en sus modelos abstractos como para mejorar sus pronósticos.
El avance de la sofisticación de los sistemas podría derivar en una creciente delegación de las decisiones humanas, con consecuencias que podrían rozar lo insólito. Consideremos el tradicional problema de “principal-agente”, donde el dueño (el principal) trata de evitar que el administrador de su empresa (el agente) se concentre más en su salario que en las ganancias de la firma. El dilema típico de esta situación es la “asimetría informativa”, porque el agente sabe más sobre el estado de la empresa que el propio dueño, y a veces se aprovecha de esto para llevarse una tajada mayor (de allí el dicho “el ojo del amo engorda el ganado”).
Ahora imaginemos que el administrador es un “agente artificial”. En la relación entre humanos el agente dispone de un aparato cognitivo similar al del dueño y, además, goza de capacidad de introspección. Esto implica que está en condiciones de dar cuenta de sus actos o de sus recomendaciones, explicando por qué tomó las decisiones que tomó. Con sistemas de inteligencia artificial el asesoramiento o recomendación del agente-algoritmo podrá ser muy eficiente, pero el dueño podría no tener forma de saber por qué lo hace. Y, si sucediera que el algoritmo de IA tiene facultades todavía mayores y es capaz de explicar su proceder, podría intentar hacerlo, pero lo más probable es que esta justificación sea ininteligible para el patrón.
Peor aún, algunas decisiones del robot-agente podrían ser óptimas, pero estar reñidas con la “moral humana” del dueño. El filósofo Nick Bostrom y el blogger Eliezer Yudkowsky se han ocupado de estudiar las implicancias éticas de la inteligencia artificial y advierten varios potenciales conflictos. Por ejemplo, a la hora de evaluar las características de ciertos deudores, una entidad bancaria podría establecer parámetros que generalice prácticas discriminatorias del estilo “los que tienen estas características físicas son más proclives a no pagar”.
Estas dificultades podrían condicionar la difusión de “contratos inteligentes”, porque pueden surgir disyuntivas entre las probabilidades “objetivas” y la realidad de cada persona, algo que, como humanos, solemos rechazar. Como suele repetir el psicólogo canadiense Steven Pinker, los individuos no deben ser juzgados ni limitados por las propiedades estadísticas del grupo al que pertenecen.
Más preguntas quedan en el camino. ¿Permitirá la IA mejorar los modelos de los economistas y prevenir las crisis que genera el sistema económico que estudian, o estas crisis simplemente no pueden evitarse? ¿Cómo se incorporarán a estos modelos los “algoritmos que razonan” y sus interacciones con el Homo economicus? Si se verifica que la IA también falla en sus pronósticos, ¿habrá reconciliación con la profesión? ¿Y qué teorías sobrevivirán finalmente? La respuesta definitiva de los economistas a estos interrogantes ya la conocemos: depende.
Por: Pablo Mira
Fuente: La Nación