2010 - 2019 La décennie qui changea l’information géographique
La décennie qui vient de s’achever a bouleversé le monde de la production et du traitement de l’information géographique. Le logiciel libre d’abord, puis le succès d’open Street Map ensuite, ont contraint les acteurs à revoir entièrement leurs stratégies.
S’ il est un domaine de l’informatique où les mouvements open source et open data ont bouleversé le paysage, c’est bien celui de la production et du traitement des données géographiques, aussi appelé géomatique. Jusque dans les années 2005, le marché du logiciel SIG ( Système d’information géographique), le nom donné aux logiciels de traitement et d’affichage des données géographiques, était composé d’une multitude d’acteurs commerciaux, en tête desquels caracolait – et caracole toujours – l’américain ESRI et sa gamme ARCGIS.
D’abord l’open Source
L’open Source est entré dans le domaine de la géomatique très tôt, mais très discrètement. Grass, l’un des premiers logiciels libres écrits, dont le développement commença en 1982 (!), et l’un des SIG les plus performants, ne fonctionnait qu’en mode console, ce qui explique que sa diffusion se soit limitée aux universités disposant de systèmes UNIX. Les autres projets ont démarré autour de concepts simples, souvent des visualisateurs de données, auxquels se sont greffés, au fil des ans, des fonctionnalités supplémentaires. C’est ainsi qu’est apparu Qgis. En quinze ans d’existence, ce logiciel a grossi jusqu’à devenir un mastodonte ( plus de 1 million de lignes de code) capable de rivaliser avec les produits commerciaux D’ESRI. Qgis a éliminé la plupart de ses concurrents open source, soit en causant leur abandon pur et simple – qui se souvient de udig ou GVSIG ? – soit en les absorbant dans son écosystème : c’est le cas de Grass et de SAGA qui, quoi que développés à part, sont majoritairement utilisés au travers de l’interface graphique de Qgis. Celui- ci s’enrichit ainsi de nouvelles fonctions dont il agrège les résultats dans son ( unique) espace de travail.
Mais Qgis a également grignoté les parts de marché de nombreux logiciels commerciaux. Ceci s’explique en partie par la politique tarifaire excessive pratiquée par les éditeurs privés du temps de leur monopole, doublée par la volonté d’enfermer leurs clients en abusant des formats de fichiers exclusifs aux spécifications gardées secrètes. Cette mauvaise habitude a fini par péricliter grâce au développement de L’ETL Open Source spécialisé GDAL, écrit à la sueur d’heures de rétro- ingénierie par quelques volontaires, avant que les éditeurs privés ne finissent par y contribuer eux- mêmes pour éviter la marginalisation de leur produit. Échaudés par ces pratiques commerciales, les utilisateurs ont vu dans Qgis le moyen non seulement de s’équiper à petit prix – paramètre important pour les collectivités locales aux budgets réduits –, mais également de pouvoir enfin librement échanger des données avec leurs partenaires sans avoir à passer sous les fourches caudines des éditeurs. La plupart des structures importantes, comme les grandes collectivités locales, les ministères ou les multinationales, ont conservé leur attachement aux éditeurs commerciaux – comme ESRI, ou Business Geografic, éditeur lyonnais qui a le vent en poupe depuis quelques années. Les moyennes et petites entités ont, elles, souvent adopté Qgis, quitte à en profiter pour migrer leurs données vers une base centrale de type Postgresql/ POSTGIS. Pour un coût marginal, elles peuvent désormais disposer d’une architecture solide qui facilite l’échange de données entre les
utilisateurs SIG, souvent répartis dans des services différents.
Les données à la traîne
A contrario d’autres domaines de l’informatique, la géomatique repose sur deux piliers : les logiciels et les données. Installer un SIG libre pour réaliser des économies n’a aucun intérêt si le coût des données nécessaires à son fonctionnement reste prohibitif, ce qui était le cas il y a encore dix ans. Avant 2010, en effet, L’IGN ( Institut géographique national) était peu ou prou le seul fournisseur de données géographiques de précision sur l’ensemble du territoire français, et pratiquait des tarifs rédhibitoires. Certes, produire des données géographiques de qualité nécessite une chaîne de traitements complexe, qui commence par la prise de vue aérienne, se poursuit avec la photo- interprétation et la saisie ( manuelle) des objets vectoriels, pour se finir par un contrôle a posteriori de la qualité par des mesures GPS, terrain sophistiquées. Mais les coûts de l’époque reflétaient également le fait que L’IGN fonctionnait à cheval sur deux produits, l’un, analogique et ancien – la carte papier dite « de base » au 1: 25 000, dont la « série bleue » constitue la version grand public – et l’autre, numérique et nouveau, la « BD Topo » . Ce n’est qu’en 2015, suite à la généralisation des caméras aériennes numériques et à l’augmentation de la puissance des ordinateurs que la BD Topo détrônera l’ancienne carte papier, qui sera reléguée au rang de simple « produit dérivé » . Que L’IGN pratique des politiques tarifaires aussi élevées ne manquait pas de faire grincer des dents, surtout chez les entités publiques, amenées à consacrer une part non négligeable de leur budget à acquérir des données chez un autre opérateur d’état. Celui- ci se verra sommé d’assouplir sa position, et finira par concéder la gratuité aux services publics, d’éducation et de recherche. Cependant, L’IGN demeurait seul aux commandes, maître du cahier des charges des jeux de données, et surtout propriétaire de ces derniers, ce qui lui permettait d’imposer des licences restrictives. De plus en plus d’utilisateurs cherchaient des alternatives moins chères, voire gratuites. Or, si l’écriture d’un logiciel libre peut paraître une tâche ardue, mais surmontable avec du temps et une bonne équipe de programmeurs passionnés, que dire de la constitution d’une base de données géographiques détaillée couvrant l’intégralité du territoire d’une nation, voire d’un continent ? Et pourtant…
Vint Open Street Map !
Devant ce constat, l’anglais Steve Coast décide en 2004 de créer un projet collaboratif de collecte et de diffusion gratuites de données géographiques, qu’il baptise Open Street Map ( OSM). Une idée folle, mais Steve Coast pense que l’avènement d’internet et des GPS bon marché, y compris sur les smartphones, met cette tâche à portée de n’importe qui. Et ça marche ! Les enthousiastes affluent, bien au- delà du cercle des seuls géomaticiens. Bientôt le projet déborde du Royaume- Uni, gagne l’europe, puis le monde entier. Partout, des volontaires relèvent la position des routes, rues et bâtiments, mais aussi des gares, des arrêts de bus, des commerces… Open Street Map grandit, emmagasine des quantités d’informations sans cesse remises à jour. De grandes entreprises, comme Yahoo rejoignent le mouvement en « ouvrant » leurs photographies aériennes, pour que les volontaires puissent enrichir la base sans avoir à se déplacer. Parfois même, elles offrent leurs propres jeux de données. À mesure que Open Street Map mûrit, de plus en plus d’entreprises l’adoptent pour créer leur cartographie. Dans un premier temps, L’IGN – comme les autres instituts nationaux – fait le dos rond. Mais, succès aidant, la riposte s’organise autour de quatre fronts principaux : la structure, la qualité, la couverture, la licence.
Steve Coast n’est pas vraiment un géomaticien et n’a pas comme priorité la compatibilité des données Open Street Map avec les SIG. Il opte pour une structure de données minimaliste « fourre- tout » , à l’opposé du modèle en couches structurées commun à tous les SIG, ce qui oblige les géomaticiens à de nombreuses contorsions pour utiliser les données OSM. Avec le temps, cependant, des « moulinettes » viendront palier ce souci.
La qualité des données fait débat.
Comment s’assurer de la justesse d’informations saisies par des « amateurs » avec du matériel grand public ? Steve Coast fait le même pari que Wikipedia, celui de la correction itérative par crowdsourcing. Là aussi, l’histoire lui donnera raison. Malheureusement, ni la précision, ni l’exhaustivité ne sont homogènes. La saisie des données dépendant exclusivement du bon vouloir des volontaires, là où il n’y a pas de volontaires, il n’y a pas de données. Et même si, en France, le bureau du Cadastre offre l’intégralité de ses planches cadastrales, cela ne signifie pas que quelqu’un les utilisera pour alimenter Open Street Map. Enfin, le modèle de licence D’OSM pose problème : si l’utilisation privée est totalement gratuite, la diffusion publique, y compris sur le Web, est soumise à des exigences ambiguës, qui conduiront certaines entreprises, soucieuses de ne pas divulguer leurs données, à se rabattre vers des solutions plus classiques.
L’open Data, enfin
Même si Openstreetmap n’est pas parfait, son succès se confirme. L’IGN peine à riposter. Simultanément, le mouvement Open Data prend de l’ampleur, et avec lui l’idée que la donnée publique appartient à tous. En juillet 2018, un rapport de Valéria Faure- Muntian, députée de la Loire, consacré aux données géographiques souveraines, plaide pour la gratuité des données « socles » , c’est- à- dire, entre autres, la fameuse BD Topo dont sont dérivés les autres produits de L’IGN. L’institut n’a d’autre choix que de prendre acte, et se fixe comme objectif début 2022 pour l’ouverture de ses bases. Dans l’intervalle, il doit bouleverser son modèle économique et ses schémas de production. Jusqu’ici, L’IGN maîtrisait toute la chaîne de production, depuis l’avion servant à la photographie aérienne jusqu’aux serveurs diffusant les bases de données finales. Ce modèle exclusif sera remplacé par un processus collaboratif, et des « partenaires de confiance » : L’INSEE, la Poste, le Cadastre, les collectivités locales mais aussi… Open Street Map (!) alimenteront les bases de données au travers d’un guichet participatif qui servira à la mise à jour, L’IGN n’assurant plus qu’une consolidation avant diffusion. Première base à bénéficier de cette nouvelle organisation, la BAN ( Base adresse nationale), dont l’ambition est de positionner toutes les « plaques de rues » des bâtiments français.
La photographie aérienne ne sera pas épargnée. L’IGN continuera ses campagnes régulières de survol du territoire français. Entre deux missions, lors de mises à jour importantes, l’institut fera appel à des photographies satellite de la constellation Pléiades, sans doute moins précises, mais disponibles quotidiennement.
À quoi s’attendre pour cette décennie ?
Les experts pensent que la donnée géographique détient un fort potentiel économique : 70 à 80 % de toutes les données produites contiennent, ou peuvent se lier à des positions géographiques et les usages potentiels paraissent pléthoriques. La gratuité devrait accélérer l’usage de ces ressources, tout comme l’open Data en général est censé nourrir un écosystème produisant de la valeur ajoutée. Cette position paraît exagérément optimiste. Si l’on ne peut contester l’intérêt et la polyvalence de l’information géographique, il ne faut cependant pas attendre de grands bouleversements. Abstraction faite du contexte sanitaire actuel, qui justifie une forte activité cartographique, les applications écrites au- dessus des données libres de type Open Street Map n’ont pas révolutionné le secteur : ce sont souvent des utilitaires « pratiques » ( localisation de ceci ou cela, suivi de véhicules, calculs de trajets/ tournées, etc.), mais dont l’ambition reste limitée. Avec l’accès aux données IGN, la précision de ces applications devrait augmenter. Les fonds cartographiques deviendront plus riches, plus complets. Mais le service rendu ne devrait guère évoluer.
Si l’on admet que la puissance de traitement continuera à augmenter, on peut toutefois penser qu’à l’horizon 2030, les logiciels SIG devraient être capables d’intégrer et de traiter des données issues de multiples sources, y compris temps- réel ( mash- ups), et de produire des analyses instantanées permettant de comprendre, puis de prédire, différents phénomènes aussi bien naturels ( inondations, peutêtre séismes) qu’artificiels ( pollution, mouvements de population, évolution du trafic routier…).
Reste à savoir si richesse des données et capacité de traitement suffiront à résoudre le plus grand défi posé actuellement à l’informatique embarquée : être capable de remplacer, avec toutes les garanties de sécurité, un humain au volant. C’est sûrement là le plus grand défi de la géomatique – et de l’intelligence artificielle – pour cette décennie. ✖