Reciba actualizaciones gratuitas de Fintech
Le enviaremos un correo electrónico de myFT Daily Digest con las últimas noticias de Fintech todas las mañanas.
Quizás lo hayas notado, pero la IA generativa es un tema candente en este momento. Y la industria de las inversiones, que nunca ha visto una moda tan publicitada que no le gustara, está en ello.
La realidad es que los administradores de dinero cuantitativos y los operadores de alta frecuencia han estado utilizando la «IA» desde hace bastante tiempo. El aprendizaje automático, por ejemplo, es útil para predecir patrones comerciales, mientras que el uso del procesamiento del lenguaje natural para analizar las tonterías corporativas y de los bancos centrales es algo que está en juego.
Pero la unidad cuantitativa AHL de Man Group ha publicado ahora una interesante descripción general del panorama de la IA generativa que explora cómo podría afectar a la industria de gestión de activos. Como era de esperar, el potencial es mayor en el análisis del lenguaje:
Dentro de la gestión de activos, la evidencia preliminar sugiere que los LLM pueden realizar mejores análisis de sentimiento en comparación con los métodos más tradicionales basados en BERT y diccionarios. Algunos hallazgos preliminares indican que ChatGPT muestra una mejor comprensión del lenguaje financiero en comparación con modelos como BERT, para tareas como la interpretación de Fedspeak. BloombergGPT, un LLM basado en GPT capacitado parcialmente en los extensos datos financieros de Bloomberg, también muestra cómo un conjunto de datos de capacitación específicos de finanzas puede mejorar aún más las capacidades de análisis del sentimiento financiero. Otra forma de utilizar los LLM es extraer las incrustaciones de palabras del texto de entrada (es decir, el vector numérico de cómo el modelo representa el texto) y utilizarlas como características en un modelo econométrico para predecir el sentimiento (o incluso los rendimientos esperados).
. . . Otras aplicaciones basadas en lenguajes en la gestión de activos incluyen la producción de resúmenes y la extracción de información de documentos de texto de gran tamaño, así como la inversión temática. Un estudio reciente ha demostrado que ChatGPT puede resumir eficazmente el contenido de las divulgaciones corporativas e incluso exhibir la capacidad de producir resúmenes específicos de un tema en particular. Otro caso de uso de los LLM es su capacidad para identificar vínculos entre temas conceptuales y descripciones de empresas para crear cestas temáticas de acciones.
Curiosamente, el autor, Martin Luk, investigador cuantitativo de AHL, también sugiere que podría ser útil para generar datos financieros sintéticos e hipotéticos. Esto puede parecer un poco extraño, pero es potencialmente muy útil.
Uno de los mayores problemas del mundo cuántico es que sólo se dispone de un conjunto de datos con el que trabajar: es decir, lo que realmente ha sucedido en los mercados. En las ciencias legítimas reales, puede realizar múltiples experimentos para generar una gran cantidad de datos.
Hay algunos inconvenientes obvios en el uso de datos financieros simulados (por ejemplo, cambiar algunos parámetros económicos o simplemente insertar algo de aleatoriedad), pero Alphaville sabe que algunos fondos de cobertura cuantitativos más sofisticados ahora están entrenando activamente algunos de sus modelos. Aquí está Luk:
Fuera de los LLM, las GAN (Generative Adversarial Networks) son otro tipo de modelo de IA generativa que puede crear datos sintéticos de series temporales financieras. Los estudios han demostrado que las GAN son capaces de producir datos de precios que exhiben ciertos hechos estilizados que reflejan datos empíricos (como distribuciones de cola gruesa y agrupaciones de volatilidad), con aplicaciones de última generación que incluyen el uso de GAN para estimar el riesgo de cola (por generar escenarios realistas de cola sintética). Las GAN también se han utilizado en la construcción de carteras y el ajuste de hiperparámetros estratégicos, así como en la creación de datos sintéticos de la cartera de pedidos.
Sin embargo, el punto más interesante gira en torno a la tendencia de la IA generativa a “alucinar”, cuando los modelos en lenguajes grandes básicamente inventan cosas que suenan plausibles pero incorrectas (como inventar casos legales).
En el fondo, los LLM alucinan porque simplemente están entrenados para predecir una continuación “estadísticamente plausible” de la entrada (de ahí que sus resultados parezcan superficialmente bastante convincentes). Pero lo que es más plausible estadísticamente a nivel lingüístico no es necesariamente correcto en términos de hechos, especialmente si implica cálculo o razonamiento lógico de algún tipo. Podría decirse que, a pesar de las capacidades demostradas de los LLM, es difícil justificar que «entiendan lo que significa» cuando dan una respuesta a una pregunta: ChatGPT (que usa GPT3.5) tiene dificultades notorias cuando se le pide que escriba cinco oraciones que terminen en letra o palabra determinada. De hecho, suponiendo que solo hay una continuación «correcta» de una declaración, incluso si la continuación correcta es la más probable, es común que los LLM muestreen aleatoriamente la distribución de continuaciones y, por lo tanto, tengan la posibilidad de elegir una «incorrecta». continuación. Además, no hay garantía de que la continuación más probable sea la correcta, especialmente si hay varias formas de completarla correctamente.
Aquí el documento incluye un problema matemático que ChatGPT falló, lo que debería hacer que cualquier cuantista tenga cuidado al usarlo.
El problema de las alucinaciones se ve agravado por la forma en que la mayoría de los LLM extrapolan de una palabra a la vez, y se entrenan en gran medida en la mente colmena de Internet, que a veces tiene una comprensión débil de la realidad.
Dado que se «compromete» con cada token generado, a menudo puede comenzar a generar una oración que no sabe cómo completar. Por ejemplo, puede comenzar una declaración con «Plutón es el» seguido de la palabra «el más pequeño» como una continuación plausible (ya que Plutón solía ser el planeta más pequeño). Sin embargo, una vez que se genera la frase “Plutón es el más pequeño”, es difícil completarla correctamente y GPT-4 la completa incorrectamente como “Plutón es el planeta enano más pequeño de nuestro sistema solar” (donde, de hecho, Plutón es el planeta enano más pequeño de nuestro sistema solar). segundo planeta enano más grande de nuestro sistema solar después de Eris)
La noción de que Plutón es el planeta más pequeño también plantea la distinción entre fidelidad y factualidad. La fidelidad es simplemente ser coherente y veraz con la fuente proporcionada, mientras que la factualidad se considera «corrección de los hechos» o «conocimiento del mundo». Es posible que el LLM se haya encontrado con fuentes durante su entrenamiento que afirmaban incorrectamente que Plutón era el planeta más pequeño, ya sea porque estaban desactualizadas o porque provenían de fuentes inexactas o ficticias. Dado que los materiales de capacitación de los LLM generalmente se encuentran en gran parte en Internet, la calidad de las respuestas de los LLM, especialmente en temas muy especializados, puede ser incorrecta porque el tipo de texto donde se almacena el conocimiento «correcto» (por ejemplo, libros de texto, artículos académicos) puede no ser el mismo. necesariamente estar presentes en corpus de Internet disponibles públicamente.
De alguna manera, no creemos que estos LLM consigan un trabajo en Jane Street.
Otras lecturas
— La IA generativa será excelente para los consultores de IA generativa
— La IA es el nuevo ESG