Los tres peligros de aplicar la inteligencia artificial al mercado financiero
La Reserva Federal de Richmond le pidió a ChatGPT que analice los discursos de la Fed y concluyeron que "demuestra un gran rendimiento en la clasificación", pero tiene que tener supervisión humana.
En las últimas décadas, ha surgido un conjunto de rituales distintivos en las finanzas en torno al fenómeno conocido como 'Fedspeak' [una expresión para describir el discurso ambiguo de los funcionarios de la Reserva Federal] . Cada vez que un banquero central hace un comentario, los economistas (y los periodistas) se apuran a analizarlo mientras los operadores hacen apuestas de inversión.
Pero si los economistas de la Reserva Federal de Richmond están en lo cierto, este ritual podría cambiar pronto. Recientemente le han pedido a ChatGPT que analice las declaraciones de la Fed y han llegado a la conclusión de que "demuestra un gran rendimiento en la clasificación de Fedspeak, especialmente cuando se ajusta con precisión". Además, "el rendimiento de los modelos GPT supera al de otros métodos de clasificación populares", incluidas las herramientas de 'análisis del sentimiento' que ahora utilizan muchos operadores (que analizan las reacciones de los medios de comunicación para predecir los mercados).
Sí, ha leído bien: los robots podrían ser ahora mejores descifrando la mente del presidente de la Fed, Jay Powell, que otros sistemas disponibles, según algunos de los propios empleados humanos de la Fed.
Cómo es el círculo rojo de personas que trabajan para 'romper' GPT-4
¿Es esto bueno? Si usted es un hedge fund a la caza de una ventaja competitiva, podría decir 'sí'. Y también si es un director financiero que espera racionalizar su personal. El documento de Richmond subraya que ChatGPT sólo debe utilizarse actualmente con supervisión humana, ya que, aunque puede responder correctamente al 87% de las preguntas de una "prueba estandarizada de conocimientos de economía", "no es infalible [y] aún puede clasificar erróneamente frases o no captar matices que un evaluador humano con experiencia en el dominio podría captar".
Este mensaje se repite en el torrente de artículos sobre inteligencia artificial (IA) financiera que se están publicando y que analizan tareas que van desde la selección de valores hasta la enseñanza de la economía. Aunque señalan que ChatGPT podría tener potencial como "asistente", por citar el artículo de Richmond, también subrayan que confiar en la IA, a veces puede fallar, en parte porque su conjunto de datos es limitado y desequilibrado.
Sin embargo, todo esto podría cambiar a medida que ChatGPT mejore. Así que, como era de esperar, algunas de estas nuevas investigaciones también advierten de que los puestos de trabajo de algunos economistas podrían verse pronto amenazados. Lo que, por supuesto, hará las delicias de los que reducen costos (aunque no de los verdaderos economistas humanos).
Pero si se quiere tener otra perspectiva de las implicaciones de esto, vale la pena echar un vistazo a un profético documento sobre IA coescrito por Lily Bailey y Gary Gensler, presidente de la Comisión de Bolsa y Valores (SEC, por sus siglas en inglés), allá por 2020, cuando él era académico del MIT.
El documento no causó un gran revuelo en su momento, pero es sorprendente, ya que sostiene que, si bien la IA generativa podría aportar beneficios asombrosos a las finanzas, también crea tres grandes riesgos para la estabilidad (aparte de la preocupación actual de que los robots inteligentes quieran matarnos, que no abordan).
Uno es la opacidad: las herramientas de IA son un misterio para todos, excepto para sus creadores. Y aunque en teoría sería posible rectificar esta situación exigiendo a los creadores y usuarios de IA que publiquen sus directrices internas de forma estandarizada, parece poco probable que esto ocurra pronto.
Qué es ChatGPT y por qué es clave en la guerra de Google y Microsoft por los motores de búsqueda
Y muchos inversores (y reguladores) tendrían dificultades para entender esos datos, aunque aparecieran. Por lo tanto, existe un riesgo creciente de que "los resultados inexplicables provoquen una disminución de la capacidad de los desarrolladores, los ejecutivos de los consejos de administración y los reguladores para anticiparse a las vulnerabilidades de los modelos [en finanzas]", como escribieron los autores.
El segundo problema es el riesgo de concentración. Gane quien gane las actuales batallas entre Microsoft y Google (o Facebook y Amazon) por la cuota de mercado de la IA generativa, es probable que sólo dominen un par de actores, junto con un rival (o dos) en China. Sobre esa base de IA se construirán numerosos servicios. Pero la homogeneidad de cualquier base podría crear un "aumento de los monocultivos en el sistema financiero debido a que los agentes optimizan utilizando las mismas métricas", como se observa en el documento.
Eso significa que si surge un fallo en esa base, podría contaminar todo el sistema. E incluso sin este peligro, los monocultivos tienden a crear rebaños digitales, es decir, computadoras que actúan todas igual. Esto, a su vez, aumentará los riesgos de prociclicidad (o vaivenes del mercado que se refuerzan a sí mismos), como ha señalado Mark Carney, exgobernador del Banco de Inglaterra.
El boom de ChatGPT y los peligros de la nueva era de la inteligencia artificial
"¿Qué pasaría si un modelo generativo de inteligencia artificial que escuchara el discurso de la Reserva Federal tuviera un contratiempo [y contagiara a todos los programas de mercado]?", me dice Gensler. "¿O si todo el mercado hipotecario depende de la misma capa base y algo saliera mal?".
La tercera cuestión gira en torno a las 'lagunas normativas': un eufemismo para referirse al hecho de que los reguladores financieros parecen estar mal equipados para entender la IA, o incluso para saber quién debería supervisarla. De hecho, ha habido muy poco debate público sobre el tema desde 2020, a pesar de que Gensler afirma que las tres cuestiones que identificó se están volviendo más graves a medida que prolifera la IA generativa, creando "riesgos reales para la estabilidad financiera".
Esto no impedirá que los financieros se apuren a adoptar ChatGPT en su intento de analizar la Fedspeak, elegir valores o cualquier otra cosa. Pero debería hacer reflexionar a inversores y reguladores.
La quiebra del Silicon Valley Bank proporcionó una horrible lección sobre cómo la innovación tecnológica puede cambiar inesperadamente las finanzas (en este caso, intensificando los rebaños digitales). Sin embargo, probablemente sean un pequeño anticipo del futuro de los bucles de retroalimentación viral. Los reguladores deben despertar. También los inversores, y los adictos a la Fedspeak.
Las más leídas de Financial Times
Destacadas de hoy
Members
Cuál es el precio del dólar oficial y de los dólares financieros CCL y MEP.
Toda la información que necesitas sobre cómo sigue la semana en los mercados.
Bonos, acciones, riesgo país, Cedears, plazos fijos.
Compartí tus comentarios