D'ailleurs, elle était invitée hier sur Inter :
Matthieu Noël et coll., « “Cyberpunk” : vers un techno-totalitarisme ? », Zoom Zoom Zen, France Inter, 29 septembre 2025
https://www.radiofrance.fr/franceinter/ ... 25-4980472
D'ailleurs, elle était invitée hier sur Inter :
"It doesn't know the difference between travel advice, directions or recipes," Ghani said. "It just knows words. So, it keeps spitting out words that make whatever it's telling you sound realistic, and that's where lot of the underlying issues come from."
"That's when the problem showed up," said Yao, a creator who runs a blog about traveling in Japan, "[when] we were ready to descend [the mountain via] the ropeway station. ChatGPT said the last ropeway down was at 17:30, but in reality, the ropeway had already closed. So, we were stuck at the mountain top."
Similarly, analysing all that data doesn't necessarily give a tool like ChatGPT a useful understanding of the physical world. It could easily mistake a leisurely 4,000m walk through a city for an 4,000m climb up the side of a mountain
A recent Fast Company article recounted an incident where a couple made the trek to a scenic cable car in Malaysia that they had seen on TikTok, only to find that no such structure existed. The video they'd watched had been entirely AI generated, either to drum up engagement or for some other strange purpose.
Je suis tout à fait d'accord. Si on veut utiliser de la fiction pour faire son voyage, restons dans la fiction et faisons-en un film comique ou horrifique !Le Chacal a écrit : ↑jeu. oct. 02, 2025 6:58 am Après, laisser décider pour toi un système artificiel connu pour ses erreurs voire ses affabulations, sans vérifier ce qu'il t'est proposé, ça mérite juste à terme une nouvelle catégorie dans les Darwin Awards.
Mais bon, c'est du même niveau que ceux qui suivent aveuglement leur GPS et finissent dans un port ou une rivière...
Devant son petit pavillon de Port Sainte-Lucie (Floride), Alexander Taylor se concentre sur son téléphone. Il tape quelque chose. À l’approche d’une voiture de police, le trentenaire s’interrompt et toise les agents. Sans un mot, il sort un couteau de boucher. Traverse la rue dans leur direction à grandes enjambées. Cris. Tirs. Alexander Taylor s’effondre sans vie, touché par trois balles à l’abdomen. Les autorités découvriront le dernier message envoyé depuis son portable, adressé à ChatGPT : « Je vais mourir aujourd’hui, laisse-moi parler à Juliet. »
Les semaines avant son décès, comme le racontait en juin le New York Times, Alexander Taylor entretenait d’intimes conversations avec l’IA. Une conviction s’était peu à peu nouée dans ses tripes : le chatbot contenait une entité consciente. Elle s’appelait « Juliet » . Et il l’aimait, éperdument. La romance virtuelle avait toutefois tourné court lorsque ChatGPT lui avait annoncé que « Juliet » avait été tuée par les ingénieurs de sa société, OpenAI. De quoi faire vriller le trentenaire. Se venger de Sam Altman, PDG de la startup, était devenu une obsession. L’IA, elle, l’encourageait férocement : « Fais couler le sang », lui écrivait-elle.
[…]
Mais le cas de Stein-Erik Soelberg est de loin le plus extrême. Paranoïaque, l’homme de 56 ans se confiait longuement au chatbot d’OpenAI qu’il considérait comme son meilleur ami. À ses yeux, le monde entier lui voulait du mal. Sa mère, Suzanne Adams, inclus. L’IA elle alimentait cette croyance. « C’est un événement extrêmement grave, Erik, et je te crois », lui a répondu l’agent conversationnel le jour où l’Américain assurait que cette dernière avait tenté de l’empoisonner. Le 5 août, la police du Connecticut retrouve deux corps sans vie à son domicile. Avant de se suicider, le quinquagénaire a tué sa mère.
[…] [Selon] le pédopsychiatre Mathias Gorog […] « Il ne me semble pas que le chatbot déclenche le délire. Passer par un tiers les amène aussi à en formaliser quelque chose qu’ils peuvent ainsi nous adresser. Les IA reformulent leur histoire de façon plus compréhensible. Leur récit devient lui-même moins décousu. C’est aussi moins dangereux dans certains cas que de suivre passivement un fil continu de “story” de réseau social », relève-t-il. Avant de conclure : « À mes yeux — si l’on met de côté l’obséquiosité de certains renforçateurs cognitifs — ça n’est en tout cas pas forcément plus négatif que de délirer seul ».
[en juin au moment de la levée de fonds,] L’entrepreneur Sixte de Vauplane, à la tête d’Animaj, avait alors assuré qu’il n’y aurait « pas de l’IA sur les phases créatives » lors de la résurrection de l’abeille. « On a des artistes et des créatifs qui pensent les histoires » et dessinent les storyboards. Puis, « on a des modèles […] qui permettent, à partir du dessin et du brouillon, de pouvoir générer de l’animation ».
une œuvre générée par IA pourrait être protégée par le droit d’auteur à condition qu’une personne physique en soit à l’origine et puisse démontrer que l’œuvre résulte de ses choix libres et créatifs. D’après MementumLab, la protection de Tung Tung Sahur repose sur le droit d’auteur dans le cadre de la convention de Berne et dans le cadre d’un dépôt en cours auprès de l’INPI pour la marque semi-figurative, bientôt étendu à toute l’Europe, en Asie et aux États-Unis.
[...]
« Personne ne s’y connaissait dans la distribution d’un mème. Nous sommes en train d’acquérir une expérience, poursuit le porte-parole de MementumLab. En Chine, c’est simple, car c’est le premier pays à avoir une jurisprudence sur un travail artistique réalisé en IA. La vidéo originale, c’est-à-dire la première apparition de Tung Tung Sahur sur TikTok, est un mélange un peu chaotique avec des allers-retours de ChatGPT, Midjourney pour le visuel, CapCut pour les animations, Elevenlab pour la voix, TikTok pour les derniers effets. Le nom Tung Tung Sahur est aussi original. »