Actualité politique

Comment l’IA est sur le point de débloquer des innovations à un rythme sans précédent – ​​POLITICO

L’intelligence artificielle (IA) a rapidement évolué d’une promesse future à une réalité actuelle. L’IA générative est devenue une technologie puissante appliquée dans d’innombrables contextes et cas d’utilisation, chacun comportant ses propres risques potentiels et impliquant un ensemble diversifié de parties prenantes. Alors que l’adoption de l’IA par les entreprises s’accélère, nous nous trouvons à un moment crucial. Des politiques proactives et une gouvernance intelligente sont nécessaires pour garantir que l’IA se développe en tant que force digne de confiance et équitable. Il est désormais temps d’élaborer un cadre politique qui libère tout le potentiel bénéfique de l’IA tout en atténuant les risques.

Des politiques proactives et une gouvernance intelligente sont nécessaires pour garantir que l’IA se développe en tant que force digne de confiance et équitable.

L’UE et le rythme de l’innovation en matière d’IA

L’Union européenne est depuis des années un leader en matière de politique en matière d’IA. En avril 2021, elle a présenté son dossier sur l’IA, qui comprenait sa proposition de cadre réglementaire sur l’IA.

Ces premières étapes ont déclenché des discussions sur les politiques en matière d’IA dans un contexte d’accélération de l’innovation et du changement technologique. Tout comme l’informatique personnelle a démocratisé l’accès à Internet et l’accessibilité au codage, alimentant davantage la création technologique, l’IA est le dernier catalyseur prêt à débloquer les innovations futures à un rythme sans précédent. Mais des capacités aussi puissantes s’accompagnent d’une grande responsabilité : nous devons donner la priorité aux politiques qui nous permettent d’exploiter sa puissance tout en nous protégeant contre les dommages. Pour y parvenir efficacement, nous devons reconnaître et aborder les différences entre l’IA d’entreprise et l’IA grand public.

Nous devons reconnaître et aborder les différences entre l’IA d’entreprise et l’IA grand public.

IA d’entreprise versus IA grand public

Salesforce recherche et développe activement l’IA depuis 2014, a introduit nos premières fonctionnalités d’IA dans nos produits en 2016 et a créé notre bureau d’utilisation éthique et humaine de la technologie en 2018. La confiance est notre principale valeur. C’est pourquoi nos offres d’IA sont fondées sur la confiance, la sécurité et l’éthique. Comme pour de nombreuses technologies, l’IA a plusieurs utilisations. De nombreuses personnes sont déjà familiarisées avec les grands modèles linguistiques (LLM) via des applications destinées aux consommateurs comme ChatGPT. Salesforce dirige le développement d’outils d’IA pour les entreprises, et notre approche fait la différence entre les LLM grand public et ce que nous classons comme IA d’entreprise.

L’IA d’entreprise est conçue et formée spécifiquement pour les environnements professionnels, tandis que l’IA grand public est ouverte et peut être utilisée par tous. Salesforce n’est pas dans l’espace de l’IA grand public : nous créons et déployons l’IA de gestion de la relation client (CRM) d’entreprise. Cela signifie que notre IA est spécialisée pour aider nos clients à répondre à leurs besoins commerciaux uniques. Nous l’avons fait avec Gucci grâce à l’utilisation d’Einstein for Service. En travaillant avec le centre de service client mondial de Gucci, nous avons contribué à créer un cadre standardisé, flexible et aligné sur la voix de la marque, permettant aux conseillers clients de personnaliser les expériences uniques de leurs clients.

Outre leurs publics cibles, l’IA grand public et celle d’entreprise diffèrent dans quelques autres domaines clés :

  • Contexte : les applications d’IA d’entreprise ont souvent des entrées et des sorties potentielles limitées en raison des modèles de conception spécifiques à l’entreprise. L’IA grand public effectue généralement des tâches générales qui peuvent varier considérablement en fonction de l’utilisation, ce qui la rend plus sujette aux abus et aux effets néfastes, comme l’exacerbation des résultats discriminatoires dus à des sources de données non qualifiées et à l’utilisation de matériaux protégés par le droit d’auteur.
  • Données : les systèmes d’IA d’entreprise s’appuient sur des données organisées, qui sont généralement obtenues de manière consensuelle auprès des entreprises clientes et déployées dans des environnements plus contrôlés, limitant ainsi le risque d’hallucinations et augmentant la précision. Parallèlement, les données d’IA des consommateurs peuvent provenir d’un large éventail de sources non vérifiées.
  • Confidentialité, sécurité et exactitude des données : les entreprises clientes ont souvent leurs propres exigences réglementaires et peuvent demander aux fournisseurs de services de garantir des contrôles rigoureux en matière de confidentialité, de sécurité et de responsabilité afin d’éviter les préjugés, la toxicité et les hallucinations. Les entreprises d’IA d’entreprise sont incitées à offrir des garanties supplémentaires, car leur réputation et leur avantage concurrentiel en dépendent. Les applications d’IA grand public ne sont pas soumises à des exigences aussi strictes.
  • Obligations contractuelles — la relation entre un fournisseur d’IA d’entreprise et ses clients est fondée sur des contrats ou des règles de passation des marchés, clarifiant les droits et obligations de chaque partie et la manière dont les données sont traitées. Les offres d’IA d’entreprise sont soumises à des cycles de révision réguliers pour garantir un alignement continu avec les normes élevées des clients et une réactivité à l’évolution des paysages de risques. En revanche, les sociétés d’IA grand public proposent des conditions de service à prendre ou à laisser qui informent les utilisateurs des données qui seront collectées et de la manière dont elles peuvent être utilisées, sans aucune possibilité pour les consommateurs de négocier des protections sur mesure.

Cadres politiques pour l’innovation éthique

Salesforce dessert des organisations de toutes tailles, juridictions et secteurs. Nous sommes dans une position unique pour observer les tendances mondiales en matière de technologie de l’IA et pour identifier les domaines de risques et d’opportunités en développement.

Les humains et la technologie fonctionnent mieux ensemble. Pour faciliter la surveillance humaine de la technologie de l’IA, la transparence est essentielle. Cela signifie que les humains doivent avoir le contrôle et comprendre les utilisations appropriées et les limites d’un système d’IA.

Un autre élément clé des cadres de gouvernance de l’IA est le contexte. Les modèles d’IA utilisés dans des contextes à haut risque pourraient avoir un impact profond sur les droits et libertés d’un individu, y compris un impact économique et physique, ou avoir un impact sur la dignité d’une personne, son droit à la vie privée et son droit de ne pas subir de discrimination. Ces cas d’utilisation « à haut risque » devraient être une priorité pour les décideurs politiques.

Les humains doivent avoir le contrôle et comprendre les utilisations appropriées et les limites d’un système d’IA.

C’est exactement ce que fait la loi européenne sur l’IA : elle s’attaque aux risques liés à l’IA et garantit la sécurité des personnes et des entreprises. Il crée un cadre réglementaire qui définit quatre niveaux de risque pour les systèmes d’IA – minime, limité, élevé et inacceptable – et répartit les obligations en conséquence.

Des lois complètes sur la protection des données et de solides pratiques de gouvernance des données sont essentielles à une IA responsable. Par exemple, le règlement général sur la protection des données (RGPD) de l’UE a façonné la réglementation mondiale sur la confidentialité des données, en utilisant une approche basée sur les risques similaire à la loi européenne sur l’IA. Il contient des principes ayant un impact sur la réglementation de l’IA : responsabilité ; justice; sécurité des données; et la transparence. Le RGPD établit la norme en matière de lois sur la protection des données et sera un facteur déterminant dans la manière dont les données personnelles sont gérées avec les systèmes d’IA.

Partenariat pour l’avenir

Naviguer dans le paysage de l’IA d’entreprise est une entreprise multipartite que nous ne pouvons pas affronter seuls. Heureusement, les gouvernements et les organisations multilatérales comme les États-Unis, le Royaume-Uni et le Japon, l’ONU, l’UE, le G7 et l’OCDE ont lancé des efforts pour façonner en collaboration des structures réglementaires qui favorisent à la fois l’innovation et la sécurité. En forgeant les bons partenariats intersectoriels et en nous alignant sur des cadres de gouvernance fondés sur des principes, nous pouvons libérer tout le potentiel de transformation de l’IA tout en donnant la priorité aux humains et à l’éthique.

Apprenez-en davantage sur les recommandations en matière de politiques d’IA d’entreprise de Salesforce.


Ray Richard

Head of technical department in some websites, I have been in the field of electronic journalism for 12 years and I am interested in travel, trips and discovering the world of technology.
Bouton retour en haut de la page