12484Fermer12486
ZerosquareLe 11/05/2024 à 22:05
flanker (./12483) :
même si le résumé qu'il te fera du million de documents qu'il a lus sur un sujet est imparfait, ça sera toujours mieux que pas de résumé du tout car tu n'auras pas les moyens de lire le million de documents.
Mais si tu n'as pas lu les documents, comment peux-tu savoir si le résumé est valable, s'il fait l'impasse sur des choses importantes, ou s'il comporte des éléments inventés ?

flanker (./12483) :
Accessoirement, tu as aussi plein d'autres usages, comme l'aide à la programmation. À nouveau, c'est imparfait, mais ça reste plus rapide de corriger son code que de le faire complètement.
En-dehors de l'autocomplétion (qu'on sait déjà implémenter par des approches plus déterministes), je ne suis pas convaincu par le gain de temps, si tu dois faire une code review de ce qui est généré. Et il y a le gros risque de corriger les erreurs visibles, se dire "c'est bon, ça marche", et de passer à côté d'erreurs plus subtiles et de failles potentielles.

Je sais bien qu'on est dans une époque où "ça marche à 80%, c'est bien suffisant, tant pis pour les 20% restants", mais il y a plein de cas où cette façon de réfléchir peut conduire à une catastrophe.

Utiliser des LLM pour suggérer des pistes de recherche dans un gros volume d'information (même si je ne suis pas convaincu que ce soit la meilleure méthode pour ce faire), OK. Mais pour générer directement des résultats de qualité, j'ai de gros doutes - et beaucoup de personnes, volontairement ou non, confondent allègrement les deux approches.