Avez-vous trouvé cet article étonnant ?
Le 05.09.2013

Le traitement de l’infobésité

Après les services contextuels de proximité, trois autres projets innovants ont attiré notre attention lors du Carrefour des Possibles qui s’est tenu à Futur en Seine à Paris. Leur point commun est de s’attaquer au fléau de notre ère de l’information, l’infobésité.

0
© Nikada / iStockphoto

Vous éprouvez une sensation d’étouffement sous la masse de données provenant de vos emails, de vos flux RSS, de vos réseaux sociaux. L’information devient pour vous du bruit. Vous êtes victime de surcharge informationnelle, encore appelée infobésité. Il existe un certain nombre de stratégies de défense que décrit Joseph Ruff de Harvard [1], comme par exemple filtrer ses sources, se limiter dans la quantité d’information ou encore changer sa perception des tâches.

 

1# Filtrer ses sources grâce à la sémantique grâce à Reador

 

Pour filtrer les informations à la source, on peut faire appel à différentes techniques : le filtrage humain (curation) ou les algorithmes (analyse de popularité des liens, analyse sémantique, intelligence artificielle). Le projet Reador.net, développé par Christophe Desclaux, utilise l’analyse sémantique pour filtrer un très grand nombre de sources de nouvelles (flux RSS, twets) selon des critères personnalisés. Concrètement, Reador.net effectue une première phase d’annotation en s’appuyant sur des services tels que OpenCalais, WikiMeta,… Cela permet de qualifier sémantiquement les nouvelles, c’est-à-dire leur donner du sens et lever les ambiguïtés. La deuxième phase est un filtrage des nouvelles selon des critères spécifiés par l’utilisateur, en effectuant une requête sémantique sur la base de données des nouvelles annotées. Le système retourne à l’utilisateur des nouvelles personnalisées avec leur flux RSS.. Pour les utilisateurs et les entreprises qui font de la veille d’information, le filtrage sémantique est un réel gain de productivité. Christophe Desclaux a d’ailleurs remporté le concours de programmation Boost Your Code 2012 organisé par Inria. A noter que le projet, soutenu par Inria, est open source et est encore en phase de développement.

 

2# Limiter la quantité d’information grâce au résumé automatique via Essential Summarizer


Comme le confirme différentes études [2][3], on ne lit pas les articles en entier sur le web. Par manque de temps, on lit le titre, le premier paragraphe et parfois la conclusion pour se faire une idée du contenu, au risque de passer à côté d’une information ou d’une idée capitale. Édité par Mining Essentiel, Essential Summarizer est une solution de résumé automatique de textes. Contrairement à d’autres solutions, Essential Summarizer effectue une véritable analyse linguistique du discours. Grâce à une technologie exclusive de marqueurs linguistiques d’extraction, il repère les phrases les plus informatives, comme par exemple une phrase qui contiendrait le terme « en conclusion ». L’utilisateur peut ensuite choisir un taux de contraction entre 0 et 100 %, et personnaliser son résumé grâce à des mots-clés. Le logiciel peut également effectuer une synthèse de plusieurs documents et supporte 20 langues. Une limite toutefois, il est bien adapté aux textes factuels, techniques mais pas du tout aux textes littéraires.

La une de Déjà Demain

 

3# Changer sa perception grâce au magazine personnalisé avec Déjà Demain


Déjà Demain quant à lui est un projet artistique de magazine du futur imaginé par Lysiane Bollenbach. Après avoir répondu à un questionnaire destiné à déterminer notre personnalité et notre perception du futur, Lysiane nous emmène dans une mise en page ésotérique d’articles décrivant des scénarios du futur. Encore à l’état de concept, les contenus sont encore fictifs mais à terme devrait être produits par de vrais journalistes. Déjà Demain pourrait préfigurer une forme de contenu personnalisé selon sa propre personnalité, une manière radicalement différente de consommer de l’information.

 

 

 

Article précèdent : Les services contextuels de proximité

Pour en savoir plus

[1] Ruff, J. (2002). Information Overload: Causes, Symptoms and Solutions. Harvard Graduate School of Education’s Learning Innovations Laboratory (LILA). http://lila.pz.harvard.edu/_upload/lib/InfoOverloadBrief.pdf

[2] Etude : c’est confirmé, on ne lit pas les articles en entier sur le web

[3] Website Reading: It (Sometimes) Does Happen

Plus d’informations sur le sujet ?

Ajouter un commentaire

Partenaires