La inteligencia artificial va a afectar de manera significativa la forma en que trabajamos, socializamos y jugamos. Pero abundan las afirmaciones hiperbólicas sobre su capacidad para resolver problemas complejos.
¿Será que la inteligencia artificial podría hacerme cambiar de opinión?, se pregunta Evan Selinger, profesor de filosofía al escribir su tesis al respecto del espejismo en la IA.
Continúa su análisis el profesor, revelando una anécdota, al decir que «En una conferencia en el festival South by Southwest celebrado a principios de marzo, Greg Brockman, presidente de OpenAI, la compañía que creó ChatGPT, dijo: “imagina si pudieras pedirle a tu inteligencia artificial crear un nuevo final que siga un camino diferente.” ¿Por qué detenerse ahí? ¿Podría la inteligencia artificial ser la solución para corregir cada novela o guion que a alguien no le gustaron, haciendo revisiones personalizadas para hacerlos más cortos o largos, menos o más violentos, más o menos woke?
La respuesta es no. Aunque la inteligencia artificial fuera capaz de hacer cambios a películas y libros que no te gustan, parte del valor de esas obras reside en las conversaciones compartidas que inspiran, y que requieren opiniones sobre textos en común, situados históricamente.
La generación más reciente de productos de inteligencia artificial ha causado olas de entusiasmo y financiamiento desde el otoño pasado, cuando debutaron aplicaciones de inteligencia artificial generativa como Chat GPT y DALL-E 2. Pero hay una razón por la cual muchos de los casos de uso que han sugerido los impulsores de esta tecnología parecen soluciones en busca de problemas. Esto es el solucionismo.
Acuñado por el crítico de tecnología Evgeny Morozov, el término solucionismo tecnológico es la creencia errónea de que podemos hacer enormes progresos para mitigar dilemas complejos hasta solucionarlos en su totalidad, si reducimos sus elementos centrales a problemas de ingeniería más simples. Esto es atractivo por tres razones.
En primer lugar, es psicológicamente consolador. Se siente bien pensar que, en un mundo complicado, los grandes retos se pueden solucionar de forma fácil y directa. En segundo lugar, el solucionismo tecnológico es económicamente atractivo. Promete una accesible, aunque no barata, solución milagrosa, en un mundo con recursos limitados para abordar muchos problemas apremiantes. En tercer lugar, el solucionismo tecnológico refuerza el optimismo en torno a la innovación, en particular la idea tecnocrática de que los enfoques de ingeniería para la resolución de conflictos son más efectivos que las alternativas que tienen dimensiones sociales y políticas.
Pero si suena demasiado bueno para ser verdad –¡un nuevo final para una mala serie!–, sabemos que probablemente lo sea. El solucionismo no funciona porque tergiversa los problemas y malentiende sus causas. Los solucionistas cometen estos errores porque descartan o minimizan la información crítica, que muchas veces tiene que ver con el contexto. Para obtener esa información, es necesario escuchar a las personas que tienen los conocimientos y la experiencia relevantes.
El solucionismo es un componente crucial de la forma en que las grandes empresas tecnológicas venden sus visiones sobre innovación al público y a los inversionistas. Cuando Facebook se convirtió en Meta y comenzó a anunciar su viraje hacia la realidad virtual, lanzó un costoso e inesperadamente deprimente comercial en el Super Bowl, que transmitía el mensaje de que la realidad física está rota y que la solución a todo lo que nos acongoja se puede encontrar en las alternativas virtuales. El mensaje tuvo un gran impacto, y hoy tenemos a las fuerzas policiales sugiriendo que el metaverso es “una solución en línea para el problema de reclutamiento de las fuerzas policiales” porque va a permitir a los potenciales reclutas tener experiencias inmersivas como manejar vehículos policiales y resolver casos. Al mismo tiempo, Meta está haciendo movimientos que revelan que su solucionismo es una estrategia de relaciones públicas. A pesar de que la compañía era optimista con Horizon Workrooms, un producto del metaverso que permite a los equipos colaborar en realidad virtual, Mark Zuckerberg ha hecho un cambio de 180 grados al permitir que los empleados de Meta continúen trabajando de manera remota. También está dando señales de un cambio en las prioridades de la empresa, del metaverso a la inteligencia artificial.
Ahora el solucionismo es parte del actual ciclo de publicidad y exageración en torno a la inteligencia artificial. Aunque no hay duda de que los nuevos productos de inteligencia artificial van a afectar de manera significativa la forma en la que trabajamos, socializamos y jugamos, también es cierto que nos estamos ahogando en un mar de hipérboles. Tanto así, que la Comisión Federal de Comercio de Estados Unidos ha intervenido para advertir que está preocupada por las exageraciones de las compañías sobre lo que sus productos de inteligencia artificial son capaces de hacer. “Todo este revuelo por la inteligencia artificial se ha extendido a muchos productos hoy en día, desde juguetes hasta autos, pasando por chatbots y muchas cosas de por medio”, escribe la agencia.
Afortunadamente, hay muchos avances prometedores en el campo de la inteligencia artificial para la investigación y los diagnósticos médicos. Pero la idea de que los asesores médicos de inteligencia artificial van a ser una bendición para las personas que “no pueden pagar asistencia médica” es poco realista en el peor escenario y exagerado en el mejor.
En primer lugar, según Benjamin Mazer, profesor de patología de la Universidad Johns Hopkins, los avances de la inteligencia artificial están a punto de provocar un aumento en los costos de la salud. Conforme la inteligencia artificial avanza y tiene mayor capacidad para realizar exámenes físicos y analizar de manera rigurosa historiales médicos y síntomas, se espera que la industria médica en Estados Unidos incluya en cada consulta y análisis una “tarifa por servicio”. Más allá de convertir a la inteligencia artificial en una máquina de hacer dinero con el diagnóstico, Mazer anticipa que haya “avalanchas de asistencia” en el momento en que los sistemas de inteligencia artificial recomienden pruebas y procedimientos costosos, incluyendo algunos “innecesarios, alarmantes, e incluso perjudiciales”. En resumen, los avances en la automatización médica podrían fácilmente conducir a un aumento en los costos médicos.
En segundo lugar, ¿de qué sirven los buenos consejos médicos si no conducen a la acción? Más allá del gasto en pruebas y procedimientos, la medicina, muchas terapias (como la terapia física), la alimentación saludable y otras respuestas típicas para solucionar los problemas médicos son muy costosas. Precisamente ese es el problema para las personas que no tienen acceso a asistencia médica. No queda claro cómo un chatbot pueda abaratar cualquiera de estas cosas.
En tercer lugar, incluso en los casos donde los consejos de la inteligencia artificial no son caros de implementar, podemos esperar una variación en los resultados. En este contexto terapéutico, algunas personas con menos recursos podrían verse relegadas a tratamientos indeseables con bots, mientras que aquellas que cuentan con mayor capacidad económica podrán tener las preferidas consultas con humanos. Los que están estancados verán en la inteligencia artificial un agravamiento en la desigualdad, no una solución.
Para ver si Altman está pensando fundamentalmente en términos solucionistas con respecto a la inteligencia artificial o si nada más escogió un mal ejemplo, consideremos otra situación que captura el espíritu de su propuesta. ¿Qué pasa con las personas de bajos ingresos usando la ayuda legal disponible con inteligencia artificial de manera gratuita o barata en lugar de pagarle a abogados humanos, que cobran por sus servicios?
¿Y qué hay de la afirmación de Altman de que la inteligencia artificial hará a los estudiantes “más inteligentes” porque podrán estudiar con ChatGPT?
Aunque algunos estudiantes están usando la tecnología para estudiar al pedirle que les explique el material que no terminaron de entender en clase, la tecnología también está causando una ola de pánico en las escuelas. Los profesores se esfuerzan para descifrar cómo enseñar y calificar ahora que el plagio es tan sencillo y difícil de detectar. Además, es difícil crear políticas educativas eficaces, entre otras cosas porque los chatbots evolucionan de manera rápida, limitando los protocolos y los procedimientos a una vida útil corta.
En resumen, es demasiado temprano para saber si las tecnologías como ChatGPT harán que los estudiantes sean más inteligentes, porque no sabemos qué métodos de instrucción y enseñanza basados en la tecnología surgirán como medidas adaptativas.
Pero por lo menos Altman tiene razón cuando dice que seremos más productivos, ¿verdad? No tan rápido. La idea de aumentar la productividad puede ser engañosa, porque muchas personas asumen que el aumento en la eficiencia se traduce en menos y mejor trabajo. Las redes sociales están llenas de personas adulando la manera en la que la última actualización de ChatGPT, que utiliza el nuevo gran modelo multimodal GPT-4 de Open AI, es un fantástico truco de productividad para automatizar de manera rápida algunas tareas que antes tomaban mucho tiempo. Se les está escapando que estas ganancias serán efímeras.
Para poder sacar el mayor provecho a la inteligencia artificial, debemos tener muy clara la manera en que su uso va a impactar en la sociedad. Exagerar sus bondades va en detrimento de esa meta. Y el solucionismo es una de las peores formas de sobreestimación. ~
Fuente consultada: Revista “Letras Libres” – No.292 / abril 2023
Evan Selinger, es profesor de filosofía del Rochester Institute of Technology.
*Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.