« Oui, nous avons travaillé avec le gouvernement. Et cela a conduit à la qualité de ce travail et à davantage de contrats. Et j’espère que cela continuera.
Warner réfute également les accusations selon lesquelles le rôle de Faculté en tant que « partenaire d’intégration » officiel d’OpenAI et ses partenariats avec d’autres grandes entreprises technologiques telles que Google Cloud, Amazon Web Services et Microsoft, entravent son impartialité lorsqu’il s’agit de tester les systèmes de ces entreprises.
« Il n’y aura pratiquement aucune entreprise dans le monde qui possède l’expertise existante pour examiner les LLM, l’expertise réelle en matière de sécurité pour effectuer des tests et aucune relation avec une entreprise d’IA dans le monde », a-t-il déclaré.
La faculté est sans aucun doute bien préparée pour récolter les fruits de son expertise en matière de sécurité de l’IA dans les années à venir. Le gouvernement britannique à lui seul a promis 400 millions de livres sterling à l’AISI jusqu’à la fin de 2030, et la Faculté est en pole position pour en absorber une grande partie. L’entreprise continuera à travailler directement avec les principaux laboratoires d’IA pour assurer la sécurité de leurs systèmes.
« Nous allons certainement poursuivre notre équipe rouge », a déclaré Warner, utilisant un terme industriel désignant les tests agressifs de nouvelles technologies. « Tant que l’IA suit cette trajectoire et que nous voulons trouver de nouveaux moyens de la rendre plus sûre et plus contrôlée, l’intégration de ces modèles en équipe rouge semble être un moyen important d’y parvenir.
« Nous allons donc certainement poursuivre notre travail, certainement pour les clients du secteur privé, et peut-être pour les gouvernements et peut-être pour les gouvernements internationaux. »
Tom Bristow a contribué au reportage.