Meta met fin à son équipe d’IA, les experts en colère
Salut les geeks !
Il semblerait donc que Meta ait décidé de scinder son équipe d’Intelligence Artificielle Responsable (RAI) afin de concentrer ses ressources sur l’intelligence artificielle générative. C’est du moins ce qu’il rapporte L’information dans une publication interne.
Selon le rapport, la plupart des membres de l’équipe RAI rejoindront l’équipe produit d’IA générative de l’entreprise, tandis que d’autres travailleront sur l’infrastructure d’IA de Meta. L’entreprise souligne régulièrement sa volonté de développer l’IA de manière responsable et propose même une page dédiée à cette promesse, où elle liste ses « piliers d’une IA responsable », comme la responsabilité, la transparence, la sécurité, la confidentialité, etc.
Le rapport de L’information cite Jon Carvill, qui représente Meta, et affirme que l’entreprise « continuera à donner la priorité et à investir dans le développement sûr et responsable de l’IA ». Il ajoute que même si l’entreprise divise l’équipe, ces membres « continueront à soutenir les efforts interfonctionnels pertinents de Meta dans le développement et l’utilisation responsable de l’IA ».
Meta n’a pas répondu à une demande de commentaires dans les délais.
Cette année déjà, l’équipe avait subi une restructuration, avec des licenciements qui avaient laissé l’équipe de la RAI « comme une coquille vide », selon Interne du milieu des affaires. Ce rapport affirmait également que l’équipe de la RAI, qui existait depuis 2019, disposait de peu d’autonomie et que ses initiatives devaient faire l’objet de longues négociations avec les parties prenantes avant de pouvoir être mises en œuvre.
L’équipe RAI a été créée pour identifier les problèmes liés à ses approches de formation en IA, notamment pour savoir si les modèles de l’entreprise ont été formés avec des informations suffisamment diverses, afin d’éviter les problèmes de modération sur ses plateformes. Les systèmes automatisés des plateformes sociales de Meta ont déjà posé des problèmes, comme un problème de traduction sur Facebook qui a conduit à une fausse arrestation, la génération d’autocollants WhatsApp par l’IA qui produit des images biaisées lors de certaines requêtes, et les algorithmes des sites Instagram qui aident les gens à retrouver des enfants. contenu d’abus sexuel.
C’est tout pour aujourd’hui, amis techniciens ! On se retrouve très prochainement pour de nouvelles aventures technologiques ! Paix!
gn buss