On nous parle de zettaoctets (soit 1000 milliards de gigaoctets) prêts à déferler dans nos vies quotidiennes d’ici quelques années à peine. Si les données étaient essentiellement compilées dans des bases de données structurées, dans lesquelles il était simple de chercher, classer, réaliser des traitements statistiques, de nouveaux types de données non structurées nous arrivent : à l’exemple des textes bureautiques, mails, SMS, fichiers multimédia, contenus web, réseaux sociaux, tweets, etc. Notre société dispose aujourd’hui de multiples données : celles qu’elle produit – structurées et non structurées -, ainsi qu’une masse considérable de données partagées par tous sur le web et les réseaux sociaux, pour la plupart non structurées. A cela s’ajoutent les capteurs, de plus en plus nombreux et de toutes formes, mesurant tout et transmettant de la donnée en temps réel à des plateformes en ligne.
L’explosion quantitative des données numérique, le Big data, implique de nouvelles compétences, de nouvelles technologies, de nouvelles façons d’interpréter et de représenter l’information mais aussi de nouvelles questions à résoudre en termes de sécurité des données et d’impact environnemental. Et alors que les villes n’ont pour la plupart pas encore entamé leur mutation vers l’open data, il leur faut anticiper et s’adapter pour maîtriser ce flux d’informations qui pourrait sensiblement améliorer leur efficacité.
Un workshop était organisé sur le sujet à l’Hôtel de Ville d’Issy-les-Moulineaux, le 20 janvier dernier, dans le cadre du projet So Mobility, dont les premières expérimentations vont démarrer dans quelques semaines.
Un débat à suivre sur Storify :
1 thoughts on “Comment les villes doivent-elles s’adapter au Big data ?”