Michael Schrage, investigador del MIT: "Con la IA estamos evolucionando hacia una nueva forma de ser humanos"
Pionero en el estudio de los efectos de los motores de recomendación en la sociedad y la empresa, Schrage plantea ahora el futuro de las relaciones humanas y con nosotros mismos de la inteligencia artificial.
Roza la hiperactividad, en su paso y en su discurso. Promete "titulares interesantes" y "respuestas breves", aunque la conversación se extiende casi una hora. Michael Schrage, investigador sénior en la Sloan School of Management del MIT, no se deja nada en su afán por desentrañar cómo la tecnología está afectando a la forma de innovar y de tomar decisiones, tanto a escala social como empresarial.
Con una formación académica que se mueve cual equilibrista entre la economía y las ciencias de la computación, comenzó estudiando inteligencia artificial simbólica bajo la tutela de Donald Michie, quien trabajó en Bletchley Park durante la Segunda Guerra Mundial y fue alumno de Alan Turing.
A lo largo de su carrera, ha trabajado en el MIT Media Lab y ha asesorado a empresas globales como Google, McKinsey y Meta en estrategias de innovación. Ha tenido tiempo de escribir libros de referencia en cualquier escuela de negocios, como Recommendation Engines y The Innovator's Hypothesis.
A lo largo de su carrera, Schrage ha investigado cómo la transformación digital altera la economía de la innovación, incluyendo factores como los costes de transacción, la experimentación y los ecosistemas de adopción.
Su trabajo sobre el impacto de los motores de recomendación en la toma de decisiones es de los más nombrados del mundo. Ahora, Schrage se centra actualmente en la evolución de los indicadores clave de rendimiento (KPIs) hacia agentes inteligentes que redefinan las estrategias empresariales y la relación entre humanos y máquinas.
El ministro de inteligencia artificial de Emiratos: "Si Europa regula, nosotros aceleramos la tecnología"
"Al principio de mi carrera, hablábamos de una IA muy distinta, de sistemas expertos y enfoques simbólicos, que han sido superados por el aprendizaje estadístico y, más recientemente, por la IA generativa",
"Pero siempre me ha interesado entender cómo estos cambios tecnológicos afectaban a la innovación y a la economía", señala. Esto lo ha llevado, en cada etapa del camino, a explorar preguntas más profundas. Hasta llegar a la que le ocupa en estos momentos: ¿Qué sucederá cuando nuestros dispositivos sean más inteligentes que nosotros? "Esto nos obliga a replantearnos cuestiones sobre la consciencia y la naturaleza humana", sentencia.
Schrage no oculta que nos adentramos en un momento crucial en la carrera de la innovación. "Estamos viendo un cambio fundamental en cómo la tecnología influye en nuestras decisiones y comportamientos, similar a lo que ocurrió con los sistemas de recomendación. Pero ahora podemos ir más allá: no solo hacer recomendaciones al promedio o a un 'centroide', sino también a versiones específicas de nosotros mismos. Por ejemplo, podríamos pedir recomendaciones que favorezcan nuestro desarrollo personal o nuestra empatía".
Esta capacidad, antes limitada al ámbito teórico, ahora es real gracias a los modelos de lenguaje y la IA generativa. El investigador del MIT plantea un ejemplo provocador: "Supongamos que tengo que dar una evaluación de rendimiento. Podría usar un modelo de lenguaje para ayudarme a redactar una revisión que motive a la persona o la haga reflexionar sobre una debilidad. ¿Esto nos convierte en mejores líderes? Quizá, pero también nos hará reflexionar sobre cómo queremos ser percibidos y qué tipo de personas queremos ser".
No es una llamada de atención al vacío, ni mucho menos. Para el experto estadounidense, de visita en España para ofrecer una conferencia en la Fundación Ramón Areces, la inteligencia artificial ha de obligarnos a repensar cómo interactuamos con los demás, con nosotros mismos y con nuestra forma de pensar y de hallar las serendipias que tanto nos enriquecen. "Antes, muchas de las conversaciones más interesantes eran las que teníamos con colegas junto a la máquina de café.
Ahora, las IA generativas pueden convertirse en un espacio para dialogar sobre las cuestiones más humanas posibles. Es fascinante pensar en cómo estas herramientas cambiarán la forma en que reflexionamos sobre quiénes somos, quiénes queremos ser y quiénes no queremos ser. En última instancia, estas tecnologías van a redefinir el futuro del 'yo'".
Con todo ello, el impacto de la inteligencia artificial en nuestra naturaleza humana plantea un debate complejo sobre responsabilidad y privacidad. Para ilustrar esta dinámica, Schrage propone una hipótesis provocadora: "Imagina que soy Elon Musk y que he creado un 'Musk virtual' para asesorar a mis empleados. Este agente puede adoptar diferentes roles: colaborador, tecnólogo, jefe... Ahora, mis empleados se enfrentan a la pregunta de cuál de estas versiones seguir. ¿Es esto una herramienta para fomentar el alineamiento cultural en la organización o una forma de imponer una visión única? En 2020, esto parecía ciencia ficción. En 2024, estamos viendo los primeros indicios de ello".
Medir el impacto de la tecnología
Pero centrándonos en el epicentro de su trabajo académico, Michael Schrage se dio cuenta de que las organizaciones no solo querían comprender los cambios producidos por tecnologías como la mentada IA, sino medirlos.
"En mis clases ejecutivas y sesiones de asesoramiento, una pregunta surgía constantemente: ¿Cómo medimos el impacto de estas tecnologías? Así que decidí centrarme en los indicadores clave de rendimiento (KPIs). La idea era clara: si tenemos inteligencia artificial, ¿por qué no hacemos que los KPIs sean inteligentes también?"
La propuesta de Schrage va más allá de la simple medición. En su visión, los KPIs pueden evolucionar hacia agentes inteligentes capaces de aprender y proporcionar recomendaciones. "Imagina un KPI para el valor del ciclo de vida del cliente. Parte de él puede ser predictivo, otra parte generativa. Puede trabajar en conjunto con otros KPIs, como los de predicción de abandono o experiencia del cliente, para crear opciones y estrategias adaptadas a cada situación", explica el investigador.
Empero, esta idea de los agentes autónomos no es baladí y, de hecho, está considerada incluso como la tercera ola de la inteligencia artificial (Marc Benioff dixit). Algo no exento de reflexiones y debates filosóficos, como viene siendo una constante en el discurso de Michael Schrage.
"La idea de agentes autónomos plantea preguntas profundas sobre el concepto de autonomía. ¿Qué significa realmente 'autonomía'? ¿Qué decisiones dejaremos que estas entidades tomen sin nuestra aprobación directa? Desde comprar un producto hasta tomar decisiones estratégicas, la noción de preaprobación adquiere una importancia crítica", indica el profesor.
Un tema, según Schrage, está estrechamente vinculado a cuestiones de gobernanza y supervisión. "Bromeamos sobre la idea de un 'agente de gobernanza' que supervise a los otros agentes, pero eso solo expondría el mismo problema, incluso con el riesgo de multiplicar esos errores", comenta con ironía. Sin embargo, añade con tono mucho más serio: "La verdadera pregunta es cómo interactuamos con estos agentes cuando tienen más información, mejor capacidad de procesamiento y aprendizaje continuo. Es aquí donde la figura del 'human-in-the-loop' se vuelve exponencialmente más importante".
Mientras llegan esos agentes que controlen a otros agentes, el experto del MIT cree la clave del futuro empresarial está en transformar métricas como el valor del ciclo de vida del cliente (customer lifetime value) en indicadores inteligentes.
"Cuando haces que un KPI sea inteligente, lo que realmente estás haciendo es crear incentivos económicos para invertir en tus clientes", explica. "Imagina que puedes identificar qué tipo de inversiones —educación, formación, nuevas conexiones o experiencias— hacen a un cliente más valioso para tu negocio. Esto plantea preguntas estratégicas y culturales fascinantes: ¿Queremos ser más colaborativos con nuestros clientes? ¿Queremos usar estas herramientas para mejorar el entorno de trabajo de nuestros empleados? Estas decisiones van más allá de la tecnología; desafían los valores de la organización".
¿La IA nos deshumanizará?
Escuchando a Michael Schrage, la preocupación inmediata que puede surgirnos es sobre el riesgo de una deshumanización causada por el uso masivo de estas herramientas. No comparte este extremo el entrevistado.
"Es como decir que montar en bicicleta insulta a tus piernas porque no estás caminando o corriendo. La idea de que estamos perdiendo nuestra humanidad por interactuar con máquinas más inteligentes me parece simplista. La verdadera cuestión es cómo definimos la humanidad. Hay personas que sienten que pierden parte de sí mismas en relaciones tóxicas o en trabajos insatisfactorios. ¿Significa eso que debemos eliminar las relaciones o el trabajo? Claro que no. Lo mismo ocurre con la IA".
Para Schrage, el avance tecnológico no implica una pérdida, sino una redefinición. "Creo que veremos cada vez más terapias mediadas entre humanos e inteligencia artificial. Las personas se volverán más conscientes de cómo sus dispositivos moldean sus vidas y sus relaciones. Pero eso no significa que perdamos nuestra humanidad; más bien, estamos evolucionando hacia una nueva forma de ser humanos".
Y es que, para Schrage, el impacto de la inteligencia artificial no se limita a los procesos empresariales, sino que plantea preguntas fundamentales sobre nuestra relación con la tecnología. "Hay una cita del economista Kenneth Boulding que siempre me viene a la mente: 'El mundo se divide en dos tipos de personas: las que dividen el mundo en dos tipos de personas y las que no'. Y creo que eso aplica aquí. Con la IA, enfrentamos una bifurcación crucial: saber cuándo es mejor ser 'automáticos' y cuándo necesitamos ser plenamente conscientes", explica.
La distinción entre lo "mindless" (automático) y lo "mindful" (consciente) es clave en esta nueva era. "Utilizamos la tecnología para automatizar tareas que no nos interesan, como transcribir una entrevista, pero también podemos emplearla para profundizar en nuestra experiencia, como cuando volvemos a escuchar una canción en Spotify que nos evoca algo especial", señala. "El verdadero desafío será aprender a decidir en qué áreas es mejor ser automáticos y en cuáles necesitamos estar presentes de manera más consciente".
Así pues, para Schrage, no es únicamente una cuestión tecnológica, sino cultural y psicológica. "¿Quién decide? ¿Soy yo quien elige ser consciente o automático, o lo deciden mi jefe, mi pareja o mis circunstancias? Esa es la gran pregunta que define la autonomía personal en la era de la inteligencia artificial", afirma.
El consentimiento informado
El debate se amplía (más si cabe) cuando se aborda la privacidad y la regulación. Europa, con sus estrictas leyes de protección de datos, ocupa un lugar central en la discusión. "Europa tiene una perspectiva única sobre la privacidad, muy distinta a la de China, por ejemplo", reconoce Schrage. "Esto nos lleva a un tema fascinante que hemos explorado durante décadas en la medicina: el consentimiento informado. ¿Cómo informamos a las personas sobre los riesgos y beneficios de una decisión para que puedan dar su consentimiento de manera consciente?"
La conexión con la inteligencia artificial es evidente. "El gran desafío para todos los modelos de IA, sean predictivos o generativos, es su transparencia, interpretabilidad y explicabilidad", afirma. "Por ejemplo, si Amazon me hace recomendaciones basadas en su interés y no en el mío, quiero poder identificarlo y rechazarlo. Esto es lo que el consentimiento informado debería garantizar: confianza basada en la transparencia".
Schrage también señala que el consentimiento informado tendrá un impacto transformador en la regulación, no solo en Europa, sino también en América Latina y Estados Unidos. "Estamos en las primeras etapas de lo que será un cambio estructural en la forma en que regulamos la tecnología", asegura. Empero, advierte que no hay una solución única para proteger la privacidad. "Técnicas como la anonimización, la agregación o los datos sintéticos son prometedoras, pero todavía es pronto para determinar cuál será la más efectiva".
A pesar de la complejidad del debate, Schrage mantiene una posición firme: "Creo en el poder de la elección humana. Si no quieres compartir ciertos datos, nadie debería obligarte a hacerlo. Para mí, la economía de los seres humanos tiene más valor que la economía de los agentes de software".
De la ciencia ficción a la psicología autónoma
Al abordar cómo prepararnos para vivir con tecnologías como la IA generativa, Michael Schrage recurre a una inspiración literaria. "Crecí leyendo ciencia ficción, especialmente a Isaac Asimov, y siempre me fascinó el personaje de Susan Calvin, una psicóloga de robots. Creo que vamos a necesitar algo parecido: una 'psicología robótica' que nos ayude a entender cómo convivimos con estas tecnologías".
Aunque algunas herramientas de IA ya están enfocándose en este ámbito, como los chatbots terapéuticos, Schrage cree que apenas estamos rascando la superficie. "Veremos una mayor integración de la IA en áreas como la salud mental y la autoexploración. Pero esto no significa que estemos perdiendo nuestra humanidad, sino que estamos ampliando nuestras herramientas para comprendernos mejor a nosotros mismos", señala.
Al final de nuestra conversación, Schrage reflexiona sobre las tecnologías inmersivas, como la realidad virtual y aumentada, y sus fracasos recientes. "Hemos visto intentos ambiciosos, como el metaverso de Meta o los dispositivos de Apple, que no lograron el impacto esperado", comenta. "Pero ¿cuál es el futuro de estas experiencias virtuales? Hasta ahora, hemos visto más fracasos que éxitos, como ocurrió con Google Glass, pero eso no significa que debamos descartarlas".
A pesar de las dificultades, Schrage mantiene el optimismo sobre la capacidad de la tecnología para evolucionar. "El fracaso es parte del proceso de innovación", afirma. "Quizá no hemos encontrado aún el caso de uso adecuado para estas tecnologías, pero eso no significa que no lo haremos".