CXO: ¿Estamos preparados para que la IA ayude en la toma de decisiones humanas?

Una de las áreas emergentes del uso de la inteligencia artificial en las corporaciones es ayudar en las decisiones humanas. Pero, ¿está listo y los responsables de la toma de decisiones están preparados para ello?

Imagen: iStock / MaksimTkachenko

La idea de que las herramientas impulsadas por inteligencia artificial asuman puestos de trabajo en todos los niveles de las organizaciones se ha racionalizado gradualmente en una visión en la que la IA sirve más como un asistente, asumiendo varias tareas para permitir que los humanos se concentren en lo que hacen mejor. En este futuro, un médico podría dedicar más tiempo a los planes de tratamiento mientras una herramienta de inteligencia artificial interpreta las imágenes médicas, o un especialista en marketing se enfoca en los matices de la marca mientras una inteligencia artificial predice los resultados de los diferentes gastos de canal en función de una gran cantidad de datos históricos.

VER: Política de ética en inteligencia artificial (TechRepublic Premium)

Este concepto de emparejamiento humano-máquina incluso se está extendiendo a aplicaciones militares. Varios programas están construyendo redes de sensores habilitadas por inteligencia artificial que integran datos del campo de batalla y resumen información clave para permitir que los humanos se concentren en preocupaciones estratégicas e incluso morales en lugar de qué activo está dónde.

Una suposición subyacente de este emparejamiento es que las máquinas proporcionarán un conjunto de información consistente y estandarizado para sus socios humanos. Sobre la base de esa información constante, la suposición es que los humanos generalmente tomarán la misma decisión. En un nivel simplificado, parece sensato asumir que si una máquina inteligente predice fuertes lluvias por la tarde, la mayoría de los humanos traerán sus paraguas.

Sin embargo, esta suposición parece basarse en alguna variación de la teoría económica del actor económico racional, según la cual los humanos siempre tomarán una decisión que sea en su mejor interés económico. Dado el mismo conjunto de datos, la teoría supone que diferentes humanos tomarán la misma decisión. La mayoría de nosotros ha visto esta teoría refutada, ya que los humanos son criaturas económicamente desordenadas, como lo demuestran las industrias, desde el juego hasta el entretenimiento, que continúan existiendo y prosperando a pesar de que comprar boletos de lotería y atracones en Netflix ciertamente no es lo mejor para nuestro interés económico.

MIT demuestra el punto de la toma de decisiones de IA

Un estudio reciente de Sloan del MIT titulado El factor humano en la toma de decisiones basada en inteligencia artificial respalda este punto. En un estudio de 140 altos ejecutivos estadounidenses, los investigadores presentaron a cada uno de ellos una decisión estratégica idéntica sobre la inversión en una nueva tecnología. También se les dijo a los participantes que un sistema basado en IA ofrecía una recomendación para invertir en la tecnología y luego se les preguntó si aceptarían la recomendación de IA y cuánto estarían dispuestos a invertir.

Como podría esperar un compañero humano, los resultados de los ejecutivos variaron a pesar de que se les proporcionó exactamente la misma información. El estudio clasificó a los tomadores de decisiones en tres arquetipos que van desde «Escépticos» que ignoraron la recomendación de la IA hasta «Delegadores», que vieron la herramienta de IA como un medio para evitar el riesgo personal.

El comportamiento de cambio de riesgo es quizás el resultado más interesante del estudio, según el cual un ejecutivo que tomó la recomendación de IA consciente o inconscientemente asumió que podría «culpar a la máquina» si la recomendación resultara deficiente.

El problema de los expertos con la IA, versión 2

Al leer el estudio, es interesante ver la evolución de la tecnología hasta el punto de que la mayoría de los ejecutivos estaban dispuestos a adoptar una IA como socio en la toma de decisiones hasta cierto punto. Lo que también sorprende es que los resultados no son necesariamente únicos en el comportamiento organizacional y son similares a cómo reaccionan los ejecutivos ante la mayoría de los demás expertos.

Considere por un momento cómo reaccionan los líderes de su organización a su asesoramiento técnico. Es de suponer que algunos son escépticos por naturaleza y consideran su opinión antes de hacer su propia investigación profunda. Otros pueden servir como socios de pensamiento dispuestos, mientras que otro subconjunto está feliz de delegar decisiones técnicas a su liderazgo mientras señala el dedo con la culpa en caso de que las cosas salgan mal. Es probable que ocurran comportamientos similares con otras fuentes de experiencia, que van desde consultores externos hasta académicos y comentaristas populares.

VER: Hoja de referencia de Metaverse: todo lo que necesita saber (PDF gratuito) (TechRepublic)

Un tema aparentemente recurrente de interacciones con expertos, ya sean humanos o basados ​​en máquinas, es el grado variable de confianza entre diferentes tipos de personas. El estudio del MIT le da rigor a esta conclusión intuitiva que debería informar cómo los líderes tecnológicos diseñan e implementan soluciones tecnológicas basadas en IA. Así como algunos de sus colegas se inclinarán por la «confianza, pero verifique» cuando trabajen con esfuerzos externos bien acreditados, también debe esperar que ocurran estos mismos comportamientos con cualquier «experto digital» que planee implementar.

Además, suponer que un experto basado en máquinas de alguna manera resultará en una toma de decisiones consistente y predecible parece ser una suposición tan equivocada como suponer que todos los que interactúan con un experto humano llegarán a la misma conclusión. Comprender y comunicar a este inquilino fundamental de la naturaleza humana cuando se trata de un mundo desordenado evitará que su organización tenga expectativas poco razonables sobre cómo los equipos humanos y mecánicos tomarán decisiones. Para bien o para mal, nuestros socios digitales probablemente proporcionarán capacidades únicas, pero se utilizarán en el contexto de cómo los seres humanos siempre hemos tratado los consejos de «expertos».

Ver también