Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Les algorithmes au secours de la censure ? Le projet Deepnews

deepnews-600x338.jpg

Devant la multiplication des sources d’information, en particulier sur internet, de nombreux projets existent pour qualifier l’information. Du désastreux et non crédible Decodex (financé par Google) du Monde, au Checknews de Libération en passant par les notes de Facebook ou de Google. Depuis que deux lois votées en Allemagne et en France sur les infox sur les réseaux sociaux prévoient des sanctions pécuniaires ou pénales contre les contrevenants, de nombreuses sociétés commerciales tentent de bâtir un modèle prédictif qui permettrait d’éliminer les fameuses infox.

Les critères du « bon algorithme »

Un excellent article du Monday Note de Frédéric Filloux (25 février 2019) précise les critères que devrait satisfaire l’algorithme du futur :

Devrait pouvoir être utilisé par tout l’écosystème, rédacteurs, éditeurs, publicitaires, marchands.
Devrait être automatique
Devrait être en temps réel, sans attente d’analyse humaine
Devrait approcher une fiabilité de 100%

Le projet Deepnews

Deepnews est né à Stanford en 2016/2017. Développé pendant deux ans aux États-Unis grâce à une bourse, il a été transféré à Paris à l’été 2018 pour des raisons de coût. Le système est entièrement fondé sur l’intelligence artificielle et classe les informations (exclusivement en anglais pour le moment, avons nous compris) sur une échelle de 1 à 5 en fonction de leur possible véracité. Une note de 5 égale une information quasi sûre, une note de 1 égale une information quasi fausse, avec les trois notes intermédiaires.

Les paramètres (de l’ordre de 22/25 millions) permettent de classifier les items, de les mettre en rapport, pour déceler des interférences qualifiantes. Des comparaisons sont ensuite faites entre des analyses humaines et celles de l’intelligence artificielle.

Limites et interrogations

L’auteur indique que début 2019 Deepnews classifie correctement 80% des cas. Autrement dit une analyse automatique confirme une analyse humaine dans 80% des cas. La déviation humain/non humain semblerait inférieure à un point (4 au lieu de 5, 3 au lieu de 2 ou le contraire etc). Un modèle concurrent développé par Elon Musk et ses associés, Open AI aurait recours à un nombre de paramètres nettement plus important (70 fois plus nombreux) mais avec des résultats nettement inférieurs plus proches des 50%, le système se trompant une fois sur deux. Deepnews semble mieux fonctionner, ses créateurs essayant de le tromper par exemple en supprimant la ponctuation d’un texte ou en enlevant tous les noms propres pour le leurrer et corriger ensuite.

Dans tous les cas ces nouveaux systèmes – dont la motivation est bien plus le futur profit que la recherche de la vérité universelle – posent question. Que se passe-t-il lorsque le système se trompe ? Quels sont les freins qui permettent de corriger en temps réel ? Comment intégrer différents univers linguistiques ? Le système pourrait il mener à une sorte de contrôle universel de l’information ? L’enfer est pavé de bonnes intentions disait ma grand-mère. Deepnews et ses frères semblent plus proches du diablotin fourchu que des gentils anges, même s’ils s’attribuent volontiers les ailes de ces derniers. Au nom de la vérité vraie, bien entendu.

Texte repris du site de l’OJIM

https://fr.novopress.info/213967/les-algorithmes-au-secours-de-la-censure-le-projet-deepnews/

Les commentaires sont fermés.