http://www.internetactu.net/2013/10/08/surveiller-les-algorithmes/
http://www.internetactu.net/2013/10/10/limiter-le-pouvoir-des-algorithmes/
[...]
Et Barabási d'appeler les chercheurs à faire un usage éthique de leur savoir, pour tenter de réparer les dommages déjà faits. Pour cela, il propose d'avoir recours et de s'inspirer du concept de non-prolifération afin de trouver une règle d'apaisement pour la société. Le principe de la non-prolifération repose sur 3 piliers : l'ouverture, le désarmement et l'utilisation pacifique. Le premier pilier n'est pas très pertinent dans le contexte : nombre de technologies utilisées par la NSA relèvent du domaine public et sont par nature ouvertes. Par contre, les deux autres le sont autant qu'ils l'ont été pour le désarmement nucléaire. Nous devons surveiller et limiter l'usage de cette nouvelle science pour des buts militaires et, pour restaurer la confiance, promouvoir un usage pacifique de ces technologies.
[...]
La montée des "Big Data" pose de nouveaux défis aux défenseurs de la vie privée, car, contrairement aux précédents modèles qui exploitaient des informations personnelles identifiables (IPI), elles ont bouleversé la définition de ces IPI rendant toujours plus de données personnellement identifiables. Vos requêtes sur un moteur de recherche ne donnent pas votre nom ou votre adresse, mais leur étude permet de savoir finalement beaucoup de choses sur vous... L'analyse des métadonnées par exemple opère souvent en dehors des protections de la vie privée existantes et tend à marginaliser les schémas réglementaires existants. Les Big Data font porter de nouveaux risques sur la confidentialité des données (les risques de partialité ou de discrimination fondée sur la génération de données personnelles inappropriées, ce que les chercheurs appellent "le préjudice prédictif") notamment lorsque l'analyse prédictive et la catégorisation sont effectuées à leur insu ou sans leur consentement. Si ce préjudice ne s'inscrit pas dans les frontières classiques de l'invasion de la vie privée, elles sont toujours relatives aux données d'un individu. En fait, les approches Big Data utilisent assez peu les IPI, elles préfèrent combiner des techniques d'analyse des réseaux sociaux, d'interprétation des comportements en ligne et de modélisation prédictive pour créer une image intime et détaillée des gens, souvent avec un haut degré de précision. Et les préjudices suite à une mauvaise image, à la critérisation retenue ou aux biais des méthodes existent et peuvent avoir des impacts directs sur l'existence d'une personne : le refus d'un crédit ou d'un bail, une interdiction de prendre l'avion sont autant d'exemples fréquemment avancés.
Le problème est que les gens sont rarement conscients de la manière dont leurs données sont utilisées à leur détriment, notamment parce que les procédés techniques sont complexes et surtout le plus souvent opaques. Enfin, le cadre réglementaire actuel est mal équipé pour faire face à ces nouveaux défis. Et les chercheurs de proposer une nouvelle approche, assez complémentaire de celle proposée par Barabási : celle d'un droit à une procédure régulière.
[...]
Ces pistes - prenons-les comme des pistes - sont intéressantes à plus d'un titre, même si elles nécessitent encore d'être construites, d'être mises en discussion... de devenir plus concrètes. Elles montrent en tout cas que l'on peut refuser d'être démunis face à l'algorithmisation du monde et qu'on peut certainement trouver des formes de régulation adaptées pour y répondre, qui vont un peu plus loin que l'opposition manichéenne "interdire ou laisser faire" !
Hubert Guillaud
http://internetactu.blog.lemonde.fr/2013/10/11/limiter-le-pouvoir-des-algorithmes/
Appeler les chercheurs à faire un usage éthique de leur savoir...
Geen opmerkingen:
Een reactie posten