Avec Julia Stoyanovich, Drexel University.
Un
article du Monde pour abonnés.
La plupart des données et de
la puissance d’analyse sont concentrées dans les mains de quelques
entreprises, ce qui leur donne les moyens d’éliminer toute concurrence
dans des pans entiers de l’économie. Une poignée de sociétés contrôlent
toutes nos données personnelles, déterminent quelles informations nous
sont proposées, et orientent la plupart de nos décisions, portant
potentiellement atteinte à notre vie privée et à nos libertés. Avec
l’analyse de données massives, le big data, ces entreprises disposent
d’un pouvoir énorme. Pour atténuer les risques commerciaux et éthiques
que cela pose, il est impératif que la collecte et l’analyse des données
deviennent « responsables ». Pour ce faire, nous entendons qu’il faut
que la collecte et l’analyse de données deviennent impartiales,
transparentes et accessibles également à tous.
L’impartialité, pour ce qui est de l’analyse de données, c’est avant
tout l’absence de biais. Un biais peut provenir d’un algorithme qui
refléterait les intérêts commerciaux, les préférences politiques ou
autres de ses concepteurs. A titre d’exemple de partialité commerciale,
considérons les récentes poursuites de l’Union européenne contre Google,
accusé notamment de publicité cachée. Interrogé sur les biais des
résultats de son moteur de recherche en faveur de ses propres produits,
Google s’est justifié en expliquant qu’il s’agissait plus de
personnaliser les résultats dans l’intérêt de l’utilisateur que
d’augmenter les bénéfices de l’entreprise.
Un algorithme peut par exemple reconstruire les valeurs de variables cachées, comme l’origine...
En
savoir plus sur
http://www.lemonde.fr/sciences/article/2015/10/12/plaidoyer-pour-une-analyse-responsable-des-donnees_4788082_1650684.html#Za1OUs1eLMBg7gY0.99
(En français :
l'article du Monde sur le sujet - accès protégé)