Rui a écrit : ↑mer. juil. 12, 2023 5:34 pm
Non il a pas raison dans l'absolue. Il lève un point important qui peut être vrai mais qui est pour le moment compliqué à évaluer. Il faut voir sur le long terme et par rapport à ce qui sera généré via les IA dans le futur et le temps économisé pour les résultats apporté. Bien évidement que aujourd'hui avec l'apprentissage des IA le ratio coût de l'energie utilisé par rapport au service rendu est en défaveur. Par contre a part à avoir une boule de crystal impossible de savoir si ce coût serat toujours aussi important dans le futur, si les infrastructures ne s'améliore pas etc...
Devait-il avoir raison "dans l'absolu" ? Dans l'absolu, peut être que la technologie diminuera sa consommation en énergie dramatiquement et c'est ce que l'on souhaite. C'est très bien pour l'absolu, mais il se plaignait que le coût actuel de cette technologie ne soit pas sérieusement abordé alors que le problème est là, maintenant, tout de suite. Comme je n'ai pas en effet de boule de crystal je veux bien avoir de l'espoir en cette technologie mais il me parait normal de pointer du doigt une tendance qui est gênante à l'instant T.
Rui a écrit : ↑mer. juil. 12, 2023 5:34 pm
Je veux bien avoir l'interview en question
Il s'agissait du fondateur de Midjourney, David Holz (pas Stable Diffusion) :
https://www.forbes.com/sites/robsalkowi ... e-economy/
Did you seek consent from living artists or work still under copyright?
No. There isn’t really a way to get a hundred million images and know where they’re coming from. It would be cool if images had metadata embedded in them about the copyright owner or something. But that's not a thing; there's not a registry. There’s no way to find a picture on the Internet, and then automatically trace it to an owner and then have any way of doing anything to authenticate it.
Et encore une fois le problème éthique n'est pas aussi évident que ça et nécessiterai de trancher légalement car le processus est celui de l'humain sur l'apprentissage. Le problème étique est plutôt dans l'utilisation qui sera fait des travails des IA (devoir l'indiqué par exemple) ainsi que le dégât sociale que sa risque d'engendré.
Je suis tout à fait d'accord avec toi, le problème éthique est dans l'utilisation qui *est* (pas *sera*) fait de ces technologies. Car on ne parle pas de scénarios du futur ici, on est déjà dedans.
Mais je rajouterais que ce n'est pas juste comment on utilise ces outils, mais aussi comment ces outils sont créés qui peut être problématique. Pour rappel un générateur d'images comme Stable Diffusion utilise LAION, une base de données constituée originellement à but de recherche scientifique, à des fins commerciales. L'unique raison pour laquelle la data base LAION a pu collectionner des milliards d'images sans consentement est parce que le copyright n'a pas besoin d'être respecté dans le cadre de la recherche scientifique. Et qui a fondé LAION ? Stable Diffusion, qui utilise avec joie ce data-set a des fins commerciales.
~Loop hole~. Donc la formation et l'utilisation de certains outils qui existent actuellement sont déjà douteuses.
Le problème éthique me parait personnellement évident ici, et vu la tonne d'encre digitale qui a coulé sur le sujet, les différentes poursuites judiciaires et les
débats aux plus haut niveaux (c'est d'aujourd'hui) je ne suis pas le seul à penser qu'il y a un problème.
C'est des problèmes légaux par ce qu'il n'y a pas de cadre légale aujourd'hui autour de tout ceci. Ce n'est que quand tu as appropriation et exploitation directe que la lois à déjà son armement juridique.
Oui d'accord. Rien à redire en effet, certaines entités ont profité d'un flou juridique pour exploiter des données qui ne leur appartiennent pas et leurs détenteurs légitimes cherchent à défendre leurs droits via un recours en justice qui par nécessité servira à disperser ce flou juridique.
Désolé mais vue qu'il ya déjà beaucoup de débat autour de l'IA décrété que c'est non éthique me parait cavalier au mieux.
L'IA aujourd'hui dans son apprentissage ne fait que ce que fait un humain à savoir constituer une base de connaissance pour produire un contenu donnée.
C'est l'exploitation qui en est fait qui peut être problématique et qui est normalement déjà couvert sur le plan légale. Et au niveau écologique les seuls arguments que je vois c'est la comparaison basique à un instant T. Mais Quid des gains d'énergie sur le temps passé gagné par l'utilisation de l'IA par exemple et surtout de la projection potentielle sur 1, 2, 5 ou 10 ans.
La plus part des technologie pour remplacer les énergies fossiles avaient un rendement excecrables au début le temps de developper les technologies. Bien malin celui qui sera capable de calculer maintenant le coût des IA dans le futur et de savoir à coup sûr si ce sera pire, pareil ou mieux.
Et je dis pas que ça sera forcément mieux, je dis que c'est pas aussi évident que ça.
Pour clarifier ma position personnelle (et désamorcer la conversation) je ne souhaite pas classifier les "IA" comme par essence non-éthique. Je pense que l'on peut tout à fait créer ces outils de la bonne manière mais je constate que pour l'instant ce n'est pas encore le cas. Il me parait normal de vouloir en parler. Si tu veux, au lieu de parler de
problèmes on peut parler de
défis, comme ça on a la compréhension que nous devons les surmonter.
Pour rappel c'est ce qu'Ookami disait, il se plaignait que les différents défis éthiques et écologiques n'étaient pas mentionnés sérieusement dans un article qu'il a lu, c'est tout. Je ne fais que dire que ces défis existent pourtant bel et bien en pointant quelques exemples.
J'espère que dans 2, 5, 10 ans nous aurons fait des progrès sur ces sujets.