Previous Page  37 / 60 Next Page
Information
Show Menu
Previous Page 37 / 60 Next Page
Page Background

L

es nouveaux logiciels

se différencient par

des résultats adaptés

et interactifs à l’environne-

ment et aux situations. Cela

peut s’appeler intelligence artificielle, chatbots, Deep lear-

ning, algorithmes prédictifs, blockchain… Le principe

commun est de limiter l’intervention humaine pour af-

fronter des situations toujours plus complexes.

Tant que le lien entre la programmation et son résultat

demeure, la réponse juridique reste maitrisée,mais en re-

poussant toujours plus l’autonomie de décision du sys-

tème, va-t-il se rompre ? Le tout dans une société qui

admet toujours moins l’aléa et qu’il n’y ait pas de « res-

ponsable ».

Dans le droit positif, la rupture du lien est peu probable.

Pas plus que pour les évolutions technologiques précé-

dentes, le système judiciaire aura rarement des difficultés

à traiter de tels cas; le « vide juridique » n’a jamais existé

et le dernier intervenant de la chaine de programmation

qui aura « lâché la laisse » du robot sera « le » responsa-

ble. À lui d’appeler en cause qui il pourra. Mais

cela bloquera le développement de ces techno-

logies, comme lorsque les intermédiaires

d’internet étaient jugés responsables pour

tout ce qui était publié, ce qui a nécessité

la loi du 21 juin 2004 pour la confiance dans

l’économie numérique, pour permettre le

développement des réseaux.

Certains en appellent à la créa-

tion d’un régime de respon-

sabilité spécial ou sui

generis, pour les

« personnes »

que seraient ces robots. Cette vision anthropomorphique

et quelque peu romantique a peu de chance d’aboutir et

surtout n’est pas souhaitable. Elle supprimerait la meil-

leure possibilité de maîtriser cette évolution: maintenir le

lien de droit commun qui oblige à ce que les « créations »

soient responsables, car leurs concepteurs le demeurent.

Ce n’est pas un nouveau droit qui est nécessaire,mais une

réflexion sur le risque acceptable pour chaque accroisse-

ment de la fiabilité théorique d’une technologie, pour dé-

gager, au cas par cas, des solutions juridiques spécifiques.

Et on peut déjà gager qu’au résultat de cette réflexion, les

voitures autonomes ne rouleront pas très vite ! Au-

jourd’hui elle ne dépasse pas 40 km/h, by desing.

L’encadrement du « profiling » par l’article 20 du règle-

ment général sur la protection des données, adopté par le

Parlement Européen le 14 avril dernier ( ) est un bon

exemple du traitement constructif de ces questions.

Les vrais risques ne proviennent probablement pas des

particuliers ou des entreprises (le cryptage de l’iPhone n’a

pas tenu bien longtemps face au FBI), mais des technolo-

gies développées par les États pour eux-mêmes. Cela ap-

pelle une réponse qui relève des Libertés Publiques,

qu’on aimerait à la hauteur de celle apportée par

la loi « Informatique et Libertés » en 1978,

pour le traitement informatique des données

personnelles ; à une époque où l’on se sou-

venait encore de ce qu’un État pouvait faire

avec des listes. Le débat sur la Loi Rensei-

gnement laisse hélas peu d’espoir du côté

des institutions françaises, il reste à espérer

des institutions et des juri-

dictions européennes !

faUT-ILUNDROIT

pOURLESROBOTS?

Le « robot », auquel devra s’adapter le droit, n’est pas une machine

humanoïde. La plupart du temps, nous ne les verrons pas, car ce ne

seront que des programmes. Le GpS, par exemple, est encore à régler

sans se tromper, la robotisation sera de laisser le véhicule choisir la

destination et vous y amener sur une instruction verbale et subjective.

Le problème est : qui sera responsable de l’erreur ?

Nicolas Courtier

numéro 2 - 2016

RÉVOLUTIONS NUMÉRIQUES

ET INNOVATIONS DES AVOCATS

DOSSI ER