An Ethical AI

BRAINCITIES
Braincities
Published in
3 min readSep 10, 2019

--

Pierre Hoffer, EMEA Director HPC & AI Presales at HPE

Pierre Hoffer, EMEA Director HPC & AI Presales at HPE

An Ethical AI, Pierre Hoffer, EMEA Director HPC & AI Presales at HPE

The ability to use simulation associated with AI is a strength of France in all areas. At Hewlett-Packard, there is a real desire to integrate ethics with the issues of supervision and definition of AI. There is indeed a need to implement limits ​​to be able to manage complex tasks, and in particular to be able to keep control at all times. For that, either we simply stop research and development, or we adopt a framework with ethical rules. The choice is rather on the second proposal, which feeds expectations, such as the fight against hunger in the world, and the protection of the environment. To meet these challenges, AI must be aligned with human values.
Six major topics have been identified to project in the short term:
Robustness, which translates into verification (Did I build the system right?), validation (Did I build the right system?), security (avoid manipulation and attacks), and control.
Regulation, since the system must be fair and effective.
Careful use, the field of the military is the one to supervise more strictly given the stakes, it is essential to monitor and control progress.
Equity, concerning jobs and wages. Since the AI ​​avoids repetitive tasks, it generates more or less significant job losses to be managed according to the sectors.
Absence of bias, to avoid their diffusion and accentuation, with the aim of tending as much as possible towards an objective approach.
Explicability of results at any time.

Finally, concerning the relationship between human beings and the AI of tomorrow, it can be divided into three areas, which are either partnership, notion of master in certain fields (to be monitored given the risks of deviance), or AI as a tool.

French:
Une IA Ethique, Pierre Hoffer, Directeur HPC et AI EMEA chez HPE

La capacité d’utiliser de la simulation associée à de l’IA est une force de la France, et ce dans tous les domaines. Chez Hewlett-Packard, il y a une réelle volonté d’intégrer l’éthique aux questions d’encadrement et de définition de l’IA. Il y a en effet une nécessité d’encadrer l’IA pour pouvoir gérer des tâches complexes, et notamment pour pouvoir en garder le contrôle à tout moment. Pour cela, soit on arrête tout simplement les recherches et développements, soit on se dote d’un cadre avec des règles éthiques. Le choix se porte plutôt sur la deuxième proposition, qui nourrit des attentes, comme la lutte contre la faim dans le monde, et la protection de l’environnement. Pour répondre à ces défis, il faut que l’IA soit alignée sur les valeurs humaines.
Six grands sujets ont été identifiés pour se projeter à court terme :
Robustesse, qui se traduit par la vérification (est-que le système est bien construit ?), la validation (est-ce qu’il s’agit d’un bon système ?), la sécurité (éviter les manipulation et attaques), et le contrôle.
Encadrement législatif, le système devant être équitable et efficace.
Précaution dans l’utilisation, le domaine du militaire étant celui à encadrer le plus strictement étant donné les enjeux, il faut absolument surveiller et contrôler les avancées.
Équité, concernant les emplois et salaire. L’IA permettant d’éviter les tâches répétitives, elle génère des pertes d’emplois plus ou moins importantes à gérer au mieux selon les secteurs.
Absence de biais, pour éviter leur diffusion et accentuation, dans le but de tendre le plus possible vers une approche objective.
Explicabilité des résultats à tout moment.

Enfin, concernant la relation entre l’humain et l’IA de demain, elle peut s’inscrire dans trois registres, à savoir le partenariat, la notion de maître dans certains domaines (à surveiller étant donné les risques de déviance), ou l’outil.

Published by, Bibin Ponnachan, Digital Marketing Strategist, Braincities Lab

--

--