La question est régulièrement en débat : faut-il instaurer un code d'éthique à propos de l'intelligence artificielle (IA), qui prend un peu plus de place chaque jour dans les appareils qui nous entourent ? On la retrouve dans les smartphones et dans nos voitures aussi au niveau de la navigation. Bientôt, elle sera en mesure de prendre des décisions quand arrivera la conduite autonome. C'est la raison pour laquelle l'équipementier Continental, qui développe la technologie dans ses caméras (reconnaissance d'objets), détection de gestes), a développé un code d'éthique qui s'applique aux systèmes d'auto-apprentissage (self-learning).
Le groupe propose de s'appuyer sur les réglementations internationales, et en particulier les directives de l'Union européenne. Il plaide pour une transparence des décisions assistées par ordinateur.
Dans la mesure où ces systèmes à base d'IA sont capables de traiter de grandes quantités de données presque en temps réel, il est nécessaire de les faire mieux accepter par les consommateurs.
Conti propose donc de clarifier les choses. Le client doit en effet savoir d'où viennent les données, si elles sont stockées, et de quelle façon les décisions sont prises. L'intelligence artificielle ne doit jamais être discriminatoire, précise par exemple l'entreprise. C'est un point essentiel, car beaucoup de gens se demandent si, en cas d'accident inévitable, la machine ne serait pas tentée de sacrifier certaines catégories de personnes plutôt que d'autres. Un choix cornélien.
Le code en question s'applique à tous les sites Continental dans le monde et sert aussi de guide à tous les partenaires.
A propos du véhicule autonome, plusieurs travaux ont été engagés à propos de l'éthique. Au MIT, par exemple, une réflexion est engagée avec le Dalai Lama center for Ethics.