Intelligence artificielle : qui est responsable ?

Publié le 20/06/2018 Vu 3 408 fois 0
Légavox

9 rue Léopold Sédar Senghor

14460 Colombelles

02.61.53.08.01

Woody Allen l’a dit : « L’intelligence artificielle se définit comme le contraire de la bêtise humaine ». Cette phrase, à moitié pleine d’ironie, cache en réalité un constat indéniable : celui d’une avancée exponentielle en la matière. L’un des derniers exploits en date : l’intelligence artificielle créée par la société Deepmind (appartenant à Google), AlphaGo, ayant été capable de battre le multiple champion du monde de Go Lee Sedol en 2016, jeu de plateau pourtant réputé « impraticable » par une machine du fait des innombrables combinaisons possibles.

Woody Allen l’a dit : « L’intelligence artificielle se définit comme le contraire de la bêtise humain

Intelligence artificielle : qui est responsable ?

       Si la technologie que constitue l’intelligence artificielle a toujours fait partie de la culture populaire (on a tous en tête l’image du robot HAL imaginé par Kubrick dans 2001), il est difficile néanmoins de dissocier la prouesse technique des risques qui s’en suivent.

       Ainsi, si le débat autour de l’intelligence artificielle et plus précisément de la détermination du responsable (sur le plan civil comme pénal) dans le cadre d’un dommage causé par l’intelligence artificielle, ne fait pas encore consensus (I), il s’avère pourtant essentiel de trouver une solution à des litiges de plus en plus fréquents (II).

  1. Les enjeux du débat sur la responsabilité

       Il convient tout d’abord d’envisager une définition précise de l’intelligence artificielle, et de ses différentes déclinaisons (A), pour ensuite se pencher sur la façon la plus pragmatique de définir le responsable en cas de litige (B).

  1. L’intelligence artificielle : qu’est ce que c’est ?

       L’expression que l’on doit à John McCarthy, pionnier de l’intelligence artificielle, a (également) été définie par son compère Marvin Lee Minsky comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau […] ».

       Le propre de l’intelligence artificielle est d’emmagasiner de nombreuses connaissances et de constituer une base sur laquelle se fonder pour réaliser les tâches demandées, grâce à ses interactions avec l’environnement et son « expérience ».

        « Tay », l’intelligence artificielle de Microsoft est un « chatbot » qui fut lancée par l’entreprise sur le réseau Twitter et répondant parfaitement à cette définition en ce que sa mission consistait à discuter avec les internautes en s’inspirant du langage, du savoir et du comportement de ces derniers à son égard. 

       Pour autant, les concepteurs retirèrent du réseau le programme, après que celui-ci ait tenu des propos racistes et diffamatoires à l’encontre de la communauté, qui s’amusait à tester ses limites en faussant son apprentissage.

       Ce cas, parmi tant d’autres, illustre les dérives liées à l’intelligence artificielle, et pose donc la question de savoir : qui est responsable ?

  1. Comment déterminer un responsable ?

       Par définition, et comme l’affirment certains, « la responsabilité civile du fait d’un individu ou d’une chose est inhérente à l’action humaine […] Seul l’individu est responsable de ses décisions conduisant aux actes et aux conséquences malencontreuses induites par la faillibilité humaine ».

       Le problème d’une telle réflexion, c’est qu’elle s’applique parfaitement à toute sorte d’objets, mais pas vraiment à l’intelligence artificielle qui, amenée à fonctionner de manière autodidacte, conserve naturellement cette part d’indétermination et d’imprévisibilité qui met en péril une telle responsabilisation de l’homme.

       Comme l’affirme très justement Stéphane Larrière : « Dès lors, l’homme laisse la main à l’intelligence artificielle dans l’exercice de ses facultés augmentées par ce complément cognitif : il se réalise alors une sorte de délégation conférée à la machine pour décider et faire à sa place ».

       Le régime qui semble le plus favorable en vertu d’un tel dilemme semble être celui de la responsabilité sans faute, « permettant d’imputer les frais du dommage à celui qui était le mieux placé, avant le dommage, pour contracter l’assurance destinée à garantir le risque ».

       Ceci étant, au vu de la multitude de cas possibles, cette détermination n’est pas des plus aisé.

  1. Un débat de plus en plus fréquent

       Si les accidents liés aux voitures autonomes sont fréquents ces derniers temps (A), ne sont pas à exclure les risques liés aux autres formes d’intelligences artificielles (B).

  1. Le cas des voitures autonomes

       Deux accidents auront marqué les esprits ces dernières semaines. Le premier, survenu le 19 mars dernier en Arizona, concerne l’entreprise Uber. Suite à des tests sur la voie publique, l’un de ses modèles autonomes a percuté un piéton, décédé par la suite de ses blessures.

       Le système de l’automobile mis en cause, n’ayant pas activé le système de freinage avant l’impact, a contraint la société de suspendre ses activités dans le domaine. Pour autant, celle-ci soutient que l’automobiliste est à mettre en cause dans l’affaire.

       Le deuxième accident récent concerne cette fois-ci Tesla et son modèle X, au volant de laquelle est décédé un conducteur 4 jours après le drame précédent.

       Encore une fois, l’autopilote se trouve au cœur des débats, et si la famille de la victime accuse l’entreprise, celle-ci se dédouane de toute responsabilité en soulignant que la victime « n’avait pas les mains sur le guidon au moment de l’accident », et contre toute indication de la voiture l’invitant à prendre de telles mesures.

       Ces affaires mettent en lumière tout l’enjeu de l’autonomie de l’intelligence artificielle face au pouvoir de contrôle du conducteur sur la chose, dans la détermination du responsable du fait dommageable.

  1. D’autres risques potentiels à envisager

       L’exemple de « Tay », précédemment cité, laisse penser que l’on pourrait voir un jour survenir un litige portant sur des propos dénigrants, voir du harcèlement initié par de telles intelligences artificielles.

       On pense également aux assistants personnels intelligents comme Siri, Alexa, ou encore Google Home, ces « agents logiciel qui peuvent effectuer des tâches ou des services pour un individu ».

       Si ces technologies sont régulièrement sollicitées par leur propriétaire pour effectuer des actions simples, elles peuvent également être utilisées pour effectuer des recherches complexes, dont le degré d’importance de la réponse peut varier, et donc entraîner des conséquences plus ou moins graves en cas d’erreur.

       Quid de la détermination du responsable, dans le cas où la machine apporterait un résultat erroné à un calcul qui, de toute façon, n’était pas réalisable par l’Homme, car trop complexe ?

       On en revient à cette idée de délégation soulevée plus haut. Reste à savoir quels critères prédomineront en la matière, à mesure des avancées technologies, mais aussi, malheureusement, à mesure de la variété des accidents…

SOURCES :

  1. http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257
  2. http://laloidesparties.fr/responsabilite-ia
  3. G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40
  4. https://www.numerama.com/business/336940-uber-suspend-ses-activites-dans-la-voiture-autonome-apres-un-mort.html

https://fr.wikipedia.org/wiki/Assistant_personnel_intelligent

Vous avez une question ?
Blog de Murielle Cahen

Murielle CAHEN

150 € TTC

7 évaluations positives

Note : (5/5)

Posez gratuitement toutes vos questions sur notre forum juridique. Nos bénévoles vous répondent directement en ligne.

Publier un commentaire
Votre commentaire :
Inscription express :

Le présent formulaire d’inscription vous permet de vous inscrire sur le site. La base légale de ce traitement est l’exécution d’une relation contractuelle (article 6.1.b du RGPD). Les destinataires des données sont le responsable de traitement, le service client et le service technique en charge de l’administration du service, le sous-traitant Scalingo gérant le serveur web, ainsi que toute personne légalement autorisée. Le formulaire d’inscription est hébergé sur un serveur hébergé par Scalingo, basé en France et offrant des clauses de protection conformes au RGPD. Les données collectées sont conservées jusqu’à ce que l’Internaute en sollicite la suppression, étant entendu que vous pouvez demander la suppression de vos données et retirer votre consentement à tout moment. Vous disposez également d’un droit d’accès, de rectification ou de limitation du traitement relatif à vos données à caractère personnel, ainsi que d’un droit à la portabilité de vos données. Vous pouvez exercer ces droits auprès du délégué à la protection des données de LÉGAVOX qui exerce au siège social de LÉGAVOX et est joignable à l’adresse mail suivante : donneespersonnelles@legavox.fr. Le responsable de traitement est la société LÉGAVOX, sis 9 rue Léopold Sédar Senghor, joignable à l’adresse mail : responsabledetraitement@legavox.fr. Vous avez également le droit d’introduire une réclamation auprès d’une autorité de contrôle.