Comment nos principes ont aidé à définir la sortie d'AlphaFold

Réflexions et leçons sur le partage de l’une de nos plus grandes réalisations avec le monde

Mettre en action notre mission de résoudre des problèmes d’intelligence pour faire avancer la science et profiter à l’humanité s’accompagne de responsabilités essentielles. Pour aider à créer un impact positif pour la société, nous devons évaluer de manière proactive les implications éthiques de notre recherche et de ses applications de manière rigoureuse et rigoureuse. Nous savons également que chaque nouvelle technologie a le potentiel de nuire, et nous prenons au sérieux les risques à long et à court terme. Nous avons construit notre fondation sur la direction responsable depuis le tout début – avec un accent particulier sur la gouvernance responsable, la recherche et l’impact.

Cela commence par l’établissement de principes clairs qui aident à réaliser les avantages de l’intelligence artificielle (IA), tout en atténuant ses risques et ses résultats négatifs potentiels. Diriger de manière responsable est un travail d’équipe, c’est pourquoi nous avons contribué à de nombreuses normes communautaires d’IA, telles que celles développées par Google, le Partenariat sur l’intelligence artificielle et l’Organisation de coopération et de développement économiques (OCDE).

Nos principes de fonctionnement en sont venus à définir notre engagement à donner la priorité à une large utilité, ainsi qu’aux domaines de recherche et d’applications que nous refusons de poursuivre. Ces principes sont au cœur de notre prise de décision depuis la création de DeepMind et continuent d’être affinés à mesure que le paysage de l’IA change et se développe. Ils sont conçus pour notre rôle en tant qu’entreprise scientifique axée sur la recherche et s’alignent sur les principes d’IA de Google.

Des principes à la pratique

Les principes écrits ne sont qu’une partie du puzzle – la manière dont ils sont mis en pratique est essentielle. Pour la recherche complexe aux frontières de l’IA, cela pose des défis importants : comment les chercheurs peuvent-ils anticiper les avantages et les inconvénients potentiels qui pourraient survenir dans un avenir lointain ? Comment pouvons-nous développer une meilleure perspicacité morale à partir d’un large éventail de points de vue ? Et que faudrait-il pour explorer des questions difficiles parallèlement aux avancées scientifiques en temps réel afin d’éviter des résultats négatifs ?

Nous avons passé de nombreuses années à faire progresser nos compétences et nos processus pour une gouvernance, une recherche et un impact responsables dans DeepMind, de la création de boîtes à outils internes et de la publication d’articles sur des questions sociotechniques au soutien des efforts visant à accroître la délibération et la compréhension dans le domaine de l’IA. Pour aider les équipes DeepMind à diriger de manière responsable et à se protéger des préjudices, le Comité d’examen interdisciplinaire institutionnel (IRC) se réunit toutes les deux semaines pour évaluer les projets, articles et collaborations DeepMind.

Diriger de manière responsable est un muscle d’équipe, et chaque projet est une occasion de renforcer nos compétences et notre compréhension combinées. Nous avons soigneusement conçu notre processus d’examen pour inclure des experts en rotation issus d’un large éventail de disciplines, avec des chercheurs en apprentissage automatique, des éthiciens et des experts en sécurité aux côtés d’ingénieurs, d’experts en sécurité, de spécialistes des politiques, etc. Ces voix diverses identifient régulièrement des moyens d’étendre les avantages de nos technologies, suggèrent des domaines de recherche et d’applications à modifier ou à ralentir, et mettent en lumière des projets qui nécessitent davantage de conseils externes.

Bien que nous ayons fait beaucoup de progrès, de nombreux aspects de cette situation se situent en territoire inconnu. Nous ne réussirons pas à chaque fois et nous nous engageons à apprendre et à itérer en continu. Nous espérons que le partage de notre processus actuel sera utile à d’autres personnes travaillant sur l’IA responsable, et nous encourageons les commentaires au fur et à mesure que nous continuons à apprendre, c’est pourquoi nous avons décomposé les idées et les leçons de l’un de nos projets les plus complexes et les plus enrichissants : AlphaFold. Notre système AlphaFold AI a résolu le défi vieux de 50 ans de la prédiction de la structure des protéines – et nous sommes ravis de voir des scientifiques l’utiliser pour accélérer les progrès dans des domaines tels que la durabilité, la sécurité alimentaire, la découverte de médicaments et la biologie humaine essentielle depuis sa sortie sur l’ensemble de la communauté l’année dernière.

Focus sur la prédiction de la structure des protéines

Notre équipe de chercheurs, de biologistes et d’ingénieurs en apprentissage automatique considère depuis longtemps le problème du repliement des protéines comme une opportunité passionnante et unique pour les systèmes d’apprentissage par IA d’avoir un impact important. Dans ce domaine, il existe des mesures standard de succès ou d’échec, et des limites claires à ce qu’un système d’IA doit faire pour aider les scientifiques dans leur travail – prédire la structure tridimensionnelle d’une protéine. Comme pour de nombreux systèmes biologiques, le repliement des protéines est trop complexe pour que quiconque en écrive les règles de fonctionnement. Mais un système d’IA pourrait être capable d’apprendre ces règles par lui-même.

Un autre facteur important a été l’évaluation biennale, connue sous le nom de CASP (Critical Assessment of Protein Structure Prediction), fondée par le professeur John Moult et le professeur Krzysztof Fidelis. Avec chaque pool, CASP fournit une évaluation exceptionnellement robuste des progrès, obligeant les participants à anticiper les structures récemment découvertes par des expériences. Les résultats sont un excellent catalyseur pour une recherche ambitieuse et l’excellence scientifique.

Comprendre les opportunités et les risques pratiques

Alors que nous nous préparions pour l’évaluation CASP en 2020, nous avons réalisé qu’AlphaFold montrait un grand potentiel pour résoudre le défi à relever. Nous avons consacré beaucoup de temps et d’efforts à analyser les implications pratiques, en nous demandant : comment AlphaFold peut-il accélérer la recherche et les applications biologiques ? Quelles pourraient être les conséquences imprévues ? Et comment pouvons-nous partager nos progrès de manière responsable ?

Cela présentait un large éventail d’opportunités et de risques à prendre en compte, dont beaucoup se trouvaient dans des domaines où nous n’avions pas nécessairement une solide expertise. Nous avons donc sollicité la contribution externe de plus de 30 leaders de terrain dans les domaines de la recherche en biologie, de la biosécurité, de la bioéthique, des droits de l’homme, etc., en mettant l’accent sur la diversité des expériences et des antécédents.

Plusieurs thèmes récurrents ont émergé au cours de ces discussions :

  1. Équilibre entre le bénéfice général et le risque de préjudice. Nous avons commencé avec un état d’esprit prudent quant aux risques de dommages accidentels ou intentionnels, y compris la façon dont AlphaFold interagit avec les développements futurs et les technologies actuelles. De nos discussions avec des experts extérieurs, il est devenu clair qu’AlphaFold ne faciliterait pas l’endommagement des protéines, étant donné les nombreux obstacles pratiques à cela – mais les développements futurs doivent être soigneusement évalués. De nombreux experts ont fortement soutenu qu’AlphaFold, en tant qu’avancée pertinente dans de nombreux domaines de la recherche scientifique, aurait le plus grand avantage avec un accès gratuit et généralisé.
  2. Des mesures de confiance précises sont essentielles pour une utilisation responsable. Les biologistes expérimentaux ont démontré à quel point il est important de comprendre et de partager des mesures de confiance bien optimisées et utilisables pour chaque partie des prédictions d’AlphaFold. En indiquant lesquelles des prédictions d’AlphaFold sont susceptibles d’être exactes, les utilisateurs peuvent estimer quand ils peuvent faire confiance à la prédiction et l’utiliser dans leur travail – et quand ils doivent utiliser des méthodes alternatives dans leur recherche. Nous avons initialement envisagé de supprimer les prédictions pour lesquelles AlphaFold a une faible confiance ou une incertitude prédictive élevée, mais les experts externes que nous avons consultés ont établi pourquoi il était particulièrement important de conserver ces prédictions dans notre version et nous ont conseillé sur la manière la plus informative et la plus transparente de les fournir. Information.
  3. Un intérêt équitable pourrait signifier un soutien supplémentaire pour les domaines sous-financés. Nous avons eu de nombreuses discussions sur la manière d’éviter d’augmenter involontairement les inégalités au sein de la communauté scientifique. Par exemple, les maladies tropicales dites négligées, qui affectent de manière disproportionnée les régions les plus pauvres du monde, reçoivent souvent moins de financement de la recherche qu’elles ne le devraient. Nous sommes fortement encouragés à donner la priorité à un soutien pratique et à rechercher de manière proactive des partenariats avec des groupes travaillant dans ces domaines.

Établir notre approche de publication

Sur la base des informations ci-dessus, l’IRC a approuvé une gamme de versions AlphaFold pour répondre à de multiples besoins, notamment :

  • publications à comité de lecture et code open source, Y compris deux articles dans Nature, accompagnés d’un code open source, pour permettre aux chercheurs d’implémenter et d’améliorer plus facilement AlphaFold. Peu de temps après, nous avons ajouté Google Colab permettant à quiconque d’entrer une séquence de protéines et de recevoir une construction prédite, comme alternative à l’exécution du code open source eux-mêmes.
  • Une version majeure des prédictions de la structure des protéines En partenariat avec EMBL-EBI (European Bioinformatics Institute EMBL), un leader communautaire établi. En tant qu’institution publique, l’EMBL-EBI permet à quiconque de rechercher des prédictions de la structure des protéines aussi facilement qu’une recherche Google. La version initiale comprenait des formes prédites pour chaque protéine du corps humain, et notre dernière mise à jour comprenait les structures prédites pour presque toutes les protéines indexées connues de la science. Cela représente plus de 200 millions de structures, toutes disponibles gratuitement sur le site Web de l’EMBL-EBI avec des licences en libre accès, accompagnées de ressources d’accompagnement, telles que des webinaires sur l’interprétation de ces structures.
  • construire des visualisations 3D dans la base de données, Avec le marquage notable des zones de prédiction à haute et à faible confiance, et en général, nous visons à être aussi clairs que possible sur les forces et les limites d’AlphaFold dans notre documentation. Nous avons également conçu la base de données pour qu’elle soit la plus accessible possible, par exemple en tenant compte des besoins des personnes ayant une déficience visuelle des couleurs.
  • Forger des partenariats plus approfondis avec des groupes de recherche travaillant dans des domaines sous-financés, Comme les maladies négligées et les sujets critiques pour la santé mondiale. Cela comprend DNDi (Drugs for Neglected Diseases Initiative), qui fait progresser la recherche sur la maladie de Chagas et la leishmaniose, et le Center for Enzyme Innovation, qui développe des enzymes mangeuses de plastique pour aider à réduire les déchets plastiques dans l’environnement. Nos équipes d’engagement du public en pleine croissance continuent de travailler sur ces partenariats pour soutenir davantage de collaborations à l’avenir.

Comment pouvons-nous bâtir sur cette entreprise

Depuis sa sortie initiale, des centaines de milliers de personnes de plus de 190 pays ont visité la base de données sur la structure des protéines AlphaFold et utilisé le code open source d’AlphaFold depuis son lancement. Nous avons été honorés d’apprendre comment les prédictions d’AlphaFold ont accéléré d’importants efforts scientifiques et nous nous efforçons de raconter certaines de ces histoires grâce à notre projet Uncovered. À ce jour, nous n’avons connaissance d’aucun abus ou préjudice lié à AlphaFold, bien que nous continuions à y prêter une attention particulière.

Alors qu’AlphaFold était plus complexe que la plupart des projets de recherche DeepMind, nous prenons des éléments de ce que nous avons appris et les incorporons dans d’autres versions.

Nous nous appuyons sur cette activité en :

  • Augmentation de l’éventail des contributions d’experts externes À chaque étape du processus, explorez les mécanismes d’une éthique de participation plus large.
  • Élargir notre compréhension de l’intelligence artificielle en biologie Globalement, au-delà de tout projet individuel ou hack, développer une vision plus forte des opportunités et des risques au fil du temps.
  • Trouver des moyens d’élargir nos partenariats Avec des groupes dans des domaines non desservis par des structures existantes.

Tout comme nos recherches, il s’agit d’un processus d’apprentissage continu. Développer l’IA pour un bénéfice généralisé est un effort sociétal qui s’étend bien au-delà de DeepMind.

Nous faisons de notre mieux pour garder à l’esprit combien de travail acharné reste à faire en partenariat avec d’autres – et comment nous avançons de manière responsable.

Enregistrer un commentaire

Plus récente Plus ancienne

نموذج الاتصال