L
es nouveaux logiciels
se différencient par
des résultats adaptés
et interactifs à l’environne-
ment et aux situations. Cela
peut s’appeler intelligence artificielle, chatbots, Deep lear-
ning, algorithmes prédictifs, blockchain… Le principe
commun est de limiter l’intervention humaine pour af-
fronter des situations toujours plus complexes.
Tant que le lien entre la programmation et son résultat
demeure, la réponse juridique reste maitrisée,mais en re-
poussant toujours plus l’autonomie de décision du sys-
tème, va-t-il se rompre ? Le tout dans une société qui
admet toujours moins l’aléa et qu’il n’y ait pas de « res-
ponsable ».
Dans le droit positif, la rupture du lien est peu probable.
Pas plus que pour les évolutions technologiques précé-
dentes, le système judiciaire aura rarement des difficultés
à traiter de tels cas; le « vide juridique » n’a jamais existé
et le dernier intervenant de la chaine de programmation
qui aura « lâché la laisse » du robot sera « le » responsa-
ble. À lui d’appeler en cause qui il pourra. Mais
cela bloquera le développement de ces techno-
logies, comme lorsque les intermédiaires
d’internet étaient jugés responsables pour
tout ce qui était publié, ce qui a nécessité
la loi du 21 juin 2004 pour la confiance dans
l’économie numérique, pour permettre le
développement des réseaux.
Certains en appellent à la créa-
tion d’un régime de respon-
sabilité spécial ou sui
generis, pour les
« personnes »
que seraient ces robots. Cette vision anthropomorphique
et quelque peu romantique a peu de chance d’aboutir et
surtout n’est pas souhaitable. Elle supprimerait la meil-
leure possibilité de maîtriser cette évolution: maintenir le
lien de droit commun qui oblige à ce que les « créations »
soient responsables, car leurs concepteurs le demeurent.
Ce n’est pas un nouveau droit qui est nécessaire,mais une
réflexion sur le risque acceptable pour chaque accroisse-
ment de la fiabilité théorique d’une technologie, pour dé-
gager, au cas par cas, des solutions juridiques spécifiques.
Et on peut déjà gager qu’au résultat de cette réflexion, les
voitures autonomes ne rouleront pas très vite ! Au-
jourd’hui elle ne dépasse pas 40 km/h, by desing.
L’encadrement du « profiling » par l’article 20 du règle-
ment général sur la protection des données, adopté par le
Parlement Européen le 14 avril dernier ( ) est un bon
exemple du traitement constructif de ces questions.
Les vrais risques ne proviennent probablement pas des
particuliers ou des entreprises (le cryptage de l’iPhone n’a
pas tenu bien longtemps face au FBI), mais des technolo-
gies développées par les États pour eux-mêmes. Cela ap-
pelle une réponse qui relève des Libertés Publiques,
qu’on aimerait à la hauteur de celle apportée par
la loi « Informatique et Libertés » en 1978,
pour le traitement informatique des données
personnelles ; à une époque où l’on se sou-
venait encore de ce qu’un État pouvait faire
avec des listes. Le débat sur la Loi Rensei-
gnement laisse hélas peu d’espoir du côté
des institutions françaises, il reste à espérer
des institutions et des juri-
dictions européennes !
faUT-ILUNDROIT
pOURLESROBOTS?
Le « robot », auquel devra s’adapter le droit, n’est pas une machine
humanoïde. La plupart du temps, nous ne les verrons pas, car ce ne
seront que des programmes. Le GpS, par exemple, est encore à régler
sans se tromper, la robotisation sera de laisser le véhicule choisir la
destination et vous y amener sur une instruction verbale et subjective.
Le problème est : qui sera responsable de l’erreur ?
Nicolas Courtier
numéro 2 - 2016
RÉVOLUTIONS NUMÉRIQUES
ET INNOVATIONS DES AVOCATS
DOSSI ER