Les traders en actions disent que le chat GPT leur fournit des informations obsolètes et qu’ils perdent trop de temps à vérifier les faits

Les employés de banque qui utilisent Chat GPT pour se faciliter le travail font état de problèmes.

Une négociatrice en actions pétrolières affirme que Chat GPT lui a donné des informations obsolètes, ce qui a annulé le gain de temps qu’elle avait réalisé, rapporte Bloomberg.

Des entreprises comme JPMorgan et Goldman Sachs ont limité l’utilisation de l’outil d’intelligence artificielle pour leurs employés.

Depuis la publication de l’outil d’IA Chat GPT, des personnes de tous les secteurs expérimentent le chatbot et testent si l’IA peut faciliter leur travail ou même le remplacer – y compris des traders d’actions des marchés financiers. Un rapport de « Bloomberg » montre les limites de cet outil largement acclamé. Les informations seraient souvent anciennes, voire incorrectes.

Des traders en bourse ont rapporté qu’en utilisant Chat GPT, ils ont constaté que le chatbot présentait des limites. Les données fournies par le chat GPT sont anciennes ou incorrectes, ce qui rend la vérification nécessaire, mais aussi longue.

Parmi les applications qui intéressent les entreprises financières, il y a la création d’aperçus de stratégies d’investissement et la préparation de la sélection des actions.

Malgré cela, JP Morgan a limité l’utilisation de Chat GPT parmi les traders. L’entreprise craint la divulgation d’informations financières sensibles qui pourraient tirer la sonnette d’alarme des autorités de régulation. D’autres banques de Wall Street, comme Citigroup et Goldman Sachs, auraient bloqué l’utilisation de l’outil. Cette mesure s’inscrirait dans le cadre des restrictions automatiques imposées aux logiciels tiers.

Les traders en actions qui ont parlé à Bloomberg luttent toutefois contre la précision des outils d’IA. Au lieu de réduire le travail plus fastidieux, ils doivent passer du temps à vérifier les informations.

Par exemple, un négociateur en actions pétrolières a constaté que les prévisions du marché du pétrole brut générées par Chat GPT contenaient des informations obsolètes qui devaient être modifiées. Un employé de banque a constaté que l’outil permettait d’obtenir une vue d’ensemble d’un client en moins de temps qu’il n’en fallait pour effectuer une recherche sur Internet, mais que les informations recueillies devaient ensuite être vérifiées par recoupement.

« Parfois ChatGPT hallucine »

« Lorsque nous parlons de tâches de haute précision, nous devons garder à l’esprit que Chat GPT hallucine parfois et génère des réponses qui semblent convaincantes, mais qui sont en réalité fausses », affirment les analystes de la banque d’investissement Morgan Stanley. « À ce stade, il est préférable que les utilisateurs bien formés reconnaissent les erreurs et utilisent les applications d’IA générative comme un complément et non comme un substitut au travail existant ».

Une étude menée en janvier par l’Arizona State University a révélé que Chat GPT avait de mauvais résultats en mathématiques : Le taux de réussite était nettement inférieur à 60 pour cent. Un professeur de mathématiques avait donné au chatbot 1000 problèmes de mots mathématiques à résoudre.

Malgré les inconvénients potentiels de l’outil, Wall Street s’attend à un essor de la technologie, qui soutient déjà le trading algorithmique.

Un récent sondage de JP Morgan a révélé qu’un peu plus de la moitié des traders pensent que l’IA sera la technologie qui aura le plus d’impact sur le trading à l’avenir – deux fois plus que lors du même sondage l’année précédente.

Cet article a été traduit de l’anglais par Amin Al Magrebi. Vous trouverez l’original ici.