flanker (./12480) :Vraiment ? Autant je peux comprendre l'intérêt d'un outil d'indexation/recherche massive, autant un truc qui ne cite pas ses sources et qui a tendance à générer des informations fausses mais plausibles...
le besoin d'équivalent à ChatGPT existe
Zerosquare (./12481) :Pour le côté chat, tu peux faire en sorte que ça te sorte les sources et même si le résumé qu'il te fera du million de documents qu'il a lus sur un sujet est imparfait, ça sera toujours mieux que pas de résumé du tout car tu n'auras pas les moyens de lire le million de documents.flanker (./12480) :Vraiment ? Autant je peux comprendre l'intérêt d'un outil d'indexation/recherche massive, autant un truc qui ne cite pas ses sources et qui a tendance à générer des informations fausses mais plausibles...
le besoin d'équivalent à ChatGPT existe
Ou alors c'est justement pour faire de la désinformation ?
flanker (./12483) :Mais si tu n'as pas lu les documents, comment peux-tu savoir si le résumé est valable, s'il fait l'impasse sur des choses importantes, ou s'il comporte des éléments inventés ?
même si le résumé qu'il te fera du million de documents qu'il a lus sur un sujet est imparfait, ça sera toujours mieux que pas de résumé du tout car tu n'auras pas les moyens de lire le million de documents.
flanker (./12483) :En-dehors de l'autocomplétion (qu'on sait déjà implémenter par des approches plus déterministes), je ne suis pas convaincu par le gain de temps, si tu dois faire une code review de ce qui est généré. Et il y a le gros risque de corriger les erreurs visibles, se dire "c'est bon, ça marche", et de passer à côté d'erreurs plus subtiles et de failles potentielles.
Accessoirement, tu as aussi plein d'autres usages, comme l'aide à la programmation. À nouveau, c'est imparfait, mais ça reste plus rapide de corriger son code que de le faire complètement.
Zerosquare (./12485) :Oui, si tu pars du principe que ton outil fait n'importe quoi, autant ne pas s'en servir ^^flanker (./12483) :Mais si tu n'as pas lu les documents, comment peux-tu savoir si le résumé est valable, s'il fait l'impasse sur des choses importantes, ou s'il comporte des éléments inventés ?
même si le résumé qu'il te fera du million de documents qu'il a lus sur un sujet est imparfait, ça sera toujours mieux que pas de résumé du tout car tu n'auras pas les moyens de lire le million de documents.
En pratique, tous ceux que je connais qui utilisent déjà OpenAI (ou équivalent) pour les aider à développer gagnent du temps avec. Perso, j'ai assez peu essayé, mais mon dernier test (lui fournir un fichier de traduction à compléter) est largement concluant.flanker (./12483) :En-dehors de l'autocomplétion (qu'on sait déjà implémenter par des approches plus déterministes), je ne suis pas convaincu par le gain de temps, si tu dois faire une code review de ce qui est généré. Et il y a le gros risque de corriger les erreurs visibles, se dire "c'est bon, ça marche", et de passer à côté d'erreurs plus subtiles et de failles potentielles.
Accessoirement, tu as aussi plein d'autres usages, comme l'aide à la programmation. À nouveau, c'est imparfait, mais ça reste plus rapide de corriger son code que de le faire complètement.
Je sais bien qu'on est dans une époque où "ça marche à 80%, c'est bien suffisant, tant pis pour les 20% restants", mais il y a plein de cas où cette façon de réfléchir peut conduire à une catastrophe.
Utiliser des LLM pour suggérer des pistes de recherche dans un gros volume d'information (même si je ne suis pas convaincu que ce soit la meilleure méthode pour ce faire), OK. Mais pour générer directement des résultats de qualité, j'ai de gros doutes - et beaucoup de personnes, volontairement ou non, confondent allègrement les deux approches.
Zerosquare (./12494) :
Les passagers n'ont pas applaudi à l'atterrissage. Bon, accessoirement, c'est aussi parce qu'il n'y avait pas de passagers, mais...
https://x.com/WallStreetSilv/status/1794885769322217719
Billions of records detailing people's personal information may soon be dumped online after being allegedly obtained from a Florida firm that handles background checks and other requests for folks' private info.
A criminal gang that goes by the handle USDoD put the database up for sale for $3.5 million on an underworld forum in April, and rather incredibly claimed the trove included 2.9 billion records on all US, Canadian, and British citizens. It's believed one or more miscreants using the handle SXUL was responsible for the alleged exfiltration, who passed it onto USDoD, which is acting as a broker.
The pilfered information is said to include individuals' full names, addresses, and address history going back at least three decades, social security numbers, and people's parents, siblings, and relatives, some of whom have been dead for nearly 20 years. According to USDoD, this info was not scraped from public sources, though there may be duplicate entries for people in the database.
A field investigation report said that the auto-throttle disengaged when take-off mode was selected. Neither pilot noticed that the thrust was set incorrectly, and it wasn't picked up through standard operating procedures.Voilà qui donne confiance en Boeing, encore une fois.
A review of the software problems affecting the flight showed 11 faults were logged on flight to Las Palmas, though no faults were recorded during a journey to the UK a day earlier.
Boeing told investigators that the auto-throttle system on their 737 Next Generation jets had a "long history of nuisance disconnects during take-off mode engagements" - but that, when investigated, "usually, subsequent functionality checks on the system find no faults".
Zerosquare (./12500) :Si seulement
Ils prenaient la poussière dans les armoires, certainement