Du vol de contenu pour s’entraîner à la facilité des arnaques l’IA n’est pas toute blanche.
Photo by
on
Le vol de contenu
L’IA telle que ChatGPT a besoin de données pour s’entraîner, mais les entreprises et start-ups d’IA volent souvent des données, des articles aux vidéos YouTube. En soit c’est important que l’IA s’entraîne sur des vidéos, des articles ou des images voire des dessins d’artistes. Cela est grave car les œuvres d’art, les articles et les vidéos sont protégés par le droit d’auteur, certes divers médias comme l’AFP, Le Monde et le groupe Humanoid s’associent avec des IA, Mistral pour l’AFP, ChatGPT pour Le Monde et Perplexity pour Humanoid. En soit c’est bien que les sociétés derrière les IA s’associent avec des médias, mais le mal est déjà fait et j’espère que cela va éveiller ces dernières.
Le vol de voix
Connaissez-vous Eleven Labs ? C’est une question sérieuse. Cette société en IA permet en cliquant sur une simple coche sans demander sérieusement l’autorisation dans une autre fenêtre pour confirmer si c’est vrai. Pourquoi je vous parle de ça ? Et bien vaut mieux que je vous montre une vidéo YouTube de la créatrice Cléore qui a soulevé ce lièvre :
Dans cette vidéo on peut voir CemCem voler la voix de Gaëlle Garcia afin de faire un audio via la fonction Speech Synthesis d’Elevenlabs, pour faire de l’OFM IA. Bien que la possibilité de cloner une voix est payante il n’en reste qu’il faut une simple coche pour dire : oui oui j’ai le droit t’inquiète ! Alors qu’on n’a pas forcément le droit. C’est ce genre de problème qu’est soulevé par Cléore et on peut voir que ça peut être lié avec un autre problème avec l’IA.
Les arnaques par le biais de l’IA
Y a quelques mois j’ai eu un appel d’un chatbot assisté par IA qui disait un texte donné sans s’interrompre même si je parlais. Et cette IA est je pense ElevenLabs. Cependant si on prend en compte ElevenLabs et la possibilité de cloner des voix ça peut soulever un énorme problème car on risque de faire perdre de la confiance à MrBeast par exemple car tout simplement sa voix a été clonée (et c’est déjà arrivé avec les fausses vidéos giveaway de 100 000 $ sur YouTube). Vous vous rendez compte du problème que cela pose ? En dehors du problème avec la voix, connaissez-vous les boomer traps ? Et bah cette technique consiste à faire des images ou vidéos générées par IA pour piéger les boomers et maintenant les zoomers (oui même ma génération se fait avoir).
Press enter or click to view image in full size
Et une fois qu’on répond bah le piège se renferme peu à peu et on nous demande de venir en message privé afin de discuter avec un soit disant Don Juan. Vous vous rendez compte à quel point il est facile maintenant d’arnaquer les gens avec l’IA maintenant ?
Bref, l’IA est bien comme outil, mais il ne faut pas oublier qu’à l’instar d’un traitement médical ça a aussi des effets secondaires, qui peuvent faire énormément de dégâts. Bref, utilisez l’IA avec précaution, faites gaffe et prenez soin de vous et de vos proches.