Vorghyrn a écrit : ↑mer. déc. 07, 2022 9:08 am
/HS
PS on peut bouger cette discussion en sujet "Sciences" éventuellement
@Killing Joke : Vu par de par chez moi (utilisateur avancé d'IA*) la situation parait assez différente.
(plein de choses)
Pas eu le temps de répondre avant, mais, pour résumer : je suis d'accord avec tout ce que tu dis par rapport à l'utilisation qu'il sera possible de faire de l'IA actuelle (et pas d'accord sur les étapes au dessus, voir plus loin).
Ce que tu évoques, c'est ce que je mettais sous le terme "d'industrialisation des technologies actuelles", qui vont permettre d'aller (parfois beaucoup) plus loin dans les années à venir, en améliorant les résultats, en croisant les domaines, en bénéficiant d'optimisations et de meilleures performances : et oui, il y aura des choses bluffantes.
Mais la question à laquelle je répondais était, de tête, la "compréhension réelle du texte", et là, pour ma part (et je ne demande qu'à ce qu'on me montre le contraire), je ne vois *rien* qui aille vers une capacité de compréhension globale par un système informatique (et c'est çà dont je suis dubitatif sur la capacité à être prêt dans 10 ans, même si, évidemment, tout s'accélère et je peux tout à fait me tromper). Pour expliquer.
Prenons un petit texte bidon en entrée (je me demande s'il n'y a pas un cas d'usage célèbre qui ressemble un peu çà) : "Une boulangerie vend des croissants à un euro pièce. Une cliente rentre dans la boulangerie avec 0.50 cts en poche pour acheter un croissant. Elle ressort les mains vides.". Question : "Pourquoi ?" (réponse bien sûr : parce qu'elle n'a pas assez d'argent).
Du coup où en es-t'on sur ce sujet :
- il est tout à fait possible que ChatGPT soit capable de répondre, mais en ayant pioché / appris sa réponse dans une somme de textes / documentations pré-existantes et ayant fait des relations qui pourront donner des résultats justes, mais sans que le système ait la moindre compréhension réelle des concepts évoqués. Pour moi on en est toujours là aujourd'hui
- un système intelligent aurait besoin de "contexte" (l'énoncé ci-avant implique énormément de données contextuelles non décrit, sur la notion de vendre, ce qu'est "un euro" = "de l'argent" = "un moyen intermédiaire de faire du troc", ce qu'est le troc, les valeurs numériques, ce que veut dire "sortir les mains vides", "rentrer dans une boulangerie", etc. : tout çà, un lecteur humain en connaît l'interprétation par apprentissage et/ou vécu). Et donc, un système intelligent aurait ce contexte, aurait la compréhension des relations entre les concepts, et aurait (sans apprentissage, sans piocher dans des données existantes) la capacité de faire des déductions / interprétations logiques (et donc à répondre à n'importe quelle question, même une question qui n'a jamais été posée nulle part). La capacité de "compréhension de texte" nécessite tout çà (sinon on est dans la solution "1" qui sera une "astuce", pourra bien sûr être utilisée dans de nombreuses situations pratiques (écrire un scénario de jdr, optimiser la circulation à un carrefour de ville, etc.), mais aura ses limites (comme la difficulté à répondre à des questions auxquelles l'homme n'a jamais répondu avant).
On se rapproche un peu des tests de Blade Runner pour détecter les réplicants sur ces discussions...
Deux exemples "amusants" ou en tout cas en lien :
- cette semaine, il semble qu'à la question posée à ChatGPT "Qu'est ce qui pèse le plus lourd entre un kilo de plomb et un kilo d'air", la réponse de l'IA ait systématiquement été "le métal, car sa densité est plus élevée" ... Ca a été "corrigé", mais çà montre quand même les erreurs manifestes qui peuvent survenir en procédant à des mauvais appairages sur les données pré-existantes (et sans compréhension fine des notions). Voir ce thread :
https://twitter.com/alexhern/status/159 ... hat-gpt%2F
- je n'ai pas noté le lien, mais il y a eu un article sur le côté "raciste" de ChatGPT, en demandant d'écrire un script python d'embauche, et où le code généré se retrouvait avec une logique "si homme alors ... / si femme alors ... + si européen / si africain"
(sinon sur le "do, try, repeat", pour moi çà reste toujours beaucoup çà, même si en effet c'est réutilisable / portable sur d'autres contextes + le fait pour AlphaGo ne combattre contre lui même est uniquement un artifice (rapide et facile à mettre en oeuvre) pour avoir le "score" de chaque itération, bref, un artifice d'implémentation technique (très bien vu et très adapté au demeurant)
A l'inverse, un article bluffant (notamment par le côté "itératif" de la construction), qui part donc de la demande de création d'un nouveau langage, avec vocabuaire, verbes, conjugaison, et se termine par la demande de création d'un script python (fonctionnel) de traduction : "I Taught ChatGPT to Invent a Language"
https://maximumeffort.substack.com/p/i- ... a-language