Une grande partie de nos données sont personnelles. Les GAFA utilisent ces données afin de proposer ensuite des contenus et des publicités.
Les réseaux sociaux, les moteurs de recherche sont assez bien conçus pour rendre les utilisateurs "addicts" et ainsi proposer toujours plus de publicités.
Sur les réseaux, l’information qui nous est proposée est présélectionnée par des algorithmes (voir séance 1) qui tentent de repérer ce qui nous intéresse le plus en fonction des contenus que nous partageons et de nos likes.
Le souci c’est que l’algorithme nous propose toujours la même chose : c’est un biais.
Nous nous enfermons dans des propositions similaires.
D’après vous, les GAFA encouragent-ils l’esprit critique des usagers ?
On retrouve aussi ces biais dans les données fournies aux IA pour s’entrainer.
Pour qu’un ordinateur soit capable de reconnaitre une image, un texte, un son, il faut qu’il ait été mis en contact avec beaucoup d’entre eux. Les programmes de reconnaissance sont construits par des informaticiens eux-mêmes victimes de certains biais.
Les concepteurs des IA génératives admettent que l’IA a de fortes chances de se tromper. On appelle ça une « hallucination ». Les IA prédisent des mots, elles ne comprennent pas ce qu’elles proposent. Une IA générative ce n’est que de la probabilité. Un agent conversationnel n’est pas une source fiable et vérifiée : il propose une probabilité à partir de textes qu’il a engrangés et qui contiennent eux-mêmes des erreurs.
IA et désinformation
Les deepfakes sont des contenus numériques générés par l’IA.
Ils ont un impact politique. Ils sont utilisés dans des campagnes de désinformation. L’un des grands défis est la méconnaissance du public qui n’a pas conscience d’avoir à faire à des images générées.
Pouvez-vous, à l’aide du document ci-dessous, citer et expliquer quelles sont les mesures possibles pour lutter contre cette désinformation générée par de fausses images ?