Skip to content

Latest commit

 

History

History
171 lines (114 loc) · 15.4 KB

references.md

File metadata and controls

171 lines (114 loc) · 15.4 KB

Références

Liste de lecture

Travaux dans ce domaine

L'Institute for Ethical AI & Machine Learning maintient un panorama très complet des initiatives réglementaires, rapports, guidelines, frameworks divers et variés en lien avec la pratique et l'usage de l'IA et la data science : voir leur repository Awesome AI Guidelines sur Github.

Méta-études

Guidelines, liste de principes ou de thèmes-clés

  • UNESCO - Recommendation on the ethics of artificial intelligence:

    • La présente Recommandation a pour objet de formuler des valeurs et des principes éthiques ainsi que des recommandations concrètes concernant la recherche, la conception, le développement, le déploiement et l’utilisation de l’IA, en vue de mettre les systèmes d’IA au service de l’humanité, des individus, des sociétés et de l’environnement.
    • Current status is draft, with an open public consultation in progress (as of August 2020)
  • EU Draft Ethics guidelines for trustworthy AI and pilot assessment survey

    7 Key requirements:

    • Human agency and oversight
    • Technical robustness and safety
    • Privacy and data governance
    • Transparency
    • Diversity, non-discrimination and fairness
    • Societal and environmental well-being
    • Accountability
  • OECD AI Principles focused on 'Responsible stewardship of trustworthy AI'

    The Recommendation identifies five complementary values-based principles for the responsible stewardship of trustworthy AI:

    • AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being.
    • AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society.
    • There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based outcomes and can challenge them.
    • AI systems must function in a robust, secure and safe way throughout their life cycles and potential risks should be continually assessed and managed.
    • Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles.
  • The Institute for Ethical AI & Machine Learning: Awesome AI guidelines and The Responsible ML Principles:

    The Responsible Machine Learning Principles:

    1. Human augmentation: I commit to assess the impact of incorrect predictions and, when reasonable, design systems with human-in-the-loop review processes
    2. Bias evaluation: I commit to continuously develop processes that allow me to understand, document and monitor bias in development and production.
    3. Explainability by justification: I commit to develop tools and processes to continuously improve transparency and explainability of machine learning systems where reasonable.
    4. Reproducible operations: I commit to develop the infrastructure required to enable for a reasonable level of reproducibility across the operations of ML systems.
    5. Displacement strategy: I commit to identify and document relevant information so that business change processes can be developed to mitigate the impact towards workers being automated.
    6. Practical accuracy: I commit to develop processes to ensure my accuracy and cost metric functions are aligned to the domain-specific applications.
    7. Trust by privacy: I commit to build and communicate processes that protect and handle data with stakeholders that may interact with the system directly and/or indirectly.
    8. Data risk awareness: I commit to develop and improve reasonable processes and infrastructure to ensure data and model security are being taken into consideration during the development of machine learning systems.
  • PWC IA responsable:

    6 thèmes :

    • Renforcer la sécurité de l'IA avec validation, surveillance et vérification
    • Créer des modèles d'IA transparents, extensibles et prouvables
    • Créer des systèmes éthiques, compréhensibles, légaux
    • Améliorer la gouvernance avec des modèles d'exploitation et des processus de l'IA
    • Tester le biais dans les données, les modèles et l'utilisation d'algorithmes par l'homme
  • Google recommended practices for AI: Fairness, Interpretability, Privacy, Security

Déclarations, chartes, serments

Assessments et référentiels

Autres

Notes et observations

  • Beaucoup de travaux s'intéressent à l'éthique par les usages et par la non-reproduction de discrimination
  • On trouve en revanche peu de choses sur le cycle de vie de l'élaboration d'un modèle (voir par exemple le papier de Quantum Black)
  • Le plus complet est peut-être le questionnaire d'évaluation de l'UE, mais il est loin d'être actionnable, opérationnel (63 questions dont de nombreuses sont des questions très ouvertes), et son processus d'élaboration et d'évolution est relativement fermé
  • Des référentiels de la sécurité des systèmes d'information, bien plus généraux, pourraient être utilisés comme références pour éviter d'être redondant sur certains points. Par exemple le guide de la sécurité des données personnelles de la CNIL.