L’Alpe 07 : silicone vallée

Par Sylvie Lamy

Polytechnicienne, elle dirige le laboratoire de recherche sur la cartographie et les bases de données de l’Institut géographique national. Les puces ont remplacé le burin du graveur. Depuis quelques années, l’informatique révolutionne l’univers de la carte. Le métier du cartographe s’en trouve bouleversé. Mais surtout, c’est notre propre regard sur le monde qui va pouvoir vagabonder vers des horizons insoupçonnés. Ce pouvoir de l’imaginaire donnera-t-il aussi des ailes à certains acteurs de la « nouvelle économie » ?

La carte que l’on peut se procurer aujourd’hui ressemble étrangement à celle d’il y a vingt ans. Pourtant, à l’instar de la médecine ou l’architecture, la cartographie n’a pas échappé à l’évolution des techniques et tout particulièrement à l’informatisation. Les cartes se font désormais avec des ordinateurs, ce qui ne signifie pas qu’elles se font automatiquement ! Mais il ne s’agit plus uniquement d’en améliorer la qualité ou la rapidité de production ; l’informatisation a surtout permis d’élaborer des bases de données géographiques susceptibles d’être utilisées pour des applications variées grâce à des logiciels sachant manipuler ce type d’informations. Si l’on parle d’évolution des techniques de production, on peut sans doute avancer le terme de révolution du concept même de la cartographie. À l’ère de la simple carte s’est en effet substituée celle des Systèmes d’information géographique (SIG), dont la carte n’est que l’un des aspects.

Le virage est intervenu au milieu des années quatre-vingt à l’Institut géographique national (IGN) lorsqu’il a été décidé, sous l’impulsion de la Commission nationale de l’information géographique (CNIG), d’élaborer des bases de données géographiques permettant des utilisations multiples. Le contenu de la plus détaillée d’entre elles, la base de données topographiques (BDTopo), correspondait au contenu de la carte topographique au 1/25 000. Leur source initiale est constituée de prises de vues aériennes, la résolution des images satellite étant insuffisante pour une saisie à cette échelle. Deux clichés d’une même zone, photographiée sous des angles différents, sont introduits dans des appareils appelés restituteurs photogrammétriques, qui permettent aux opérateurs de voir en stéréoscopie, c’est-à-dire avec la perception du relief, les détails, bâtiments ou routes, étant vus et saisis en trois dimensions. Cette vision en relief permet également le tracé des courbes de niveau.

Ce que mesurait l’opérateur était auparavant directement dessiné sur papier, ce qui constituait le premier fond cartographique. Les restituteurs sont maintenant reliés à des ordinateurs qui stockent les informations, ce qui permet de constituer une première base de données. Les détails non visibles sur les photographies (par exemple un chemin en sous-bois) ou les renseignements complémentaires (toponymie, classement des routes, limites administratives…), qu’ils soient levés sur le terrain ou en provenance d’autres documents, viennent alors enrichir cette première base.

Apprendre aux ordinateurs
à devenir intelligents

Si l’informatique a ainsi commencé à « grignoter » un processus mis au point dans les années soixante, l’évolution se poursuit afin d’en accroître l’automatisation. Les clichés sur plaque de verre sont progressivement remplacés par des clichés numériques, ce qui devrait, à terme, alléger la phase de saisie manuelle par reconnaissance automatique de certaines formes caractéristiques comme les routes. Ces clichés numériques obtenus généralement par scannage des photographies, seront certainement dans peu de temps acquis directement par une caméra numérique dont des prototypes ont été mis au point dans l’un des laboratoires de l’IGN. On peut également imaginer des avions sans pilote dédiés à ces prises de vues !

La panoplie des outils et sources d’informations s’est considérablement étoffée avec l’arrivée, notamment, des images satellite, le GPS (Global positionning system) et les scanneurs. Aussi, quand il s’agit d’élaborer une base de données, les choix sont-ils multiples. Il est possible de scanner des cartes existantes, technique peu coûteuse mais qui produit une image muette de la carte, impossible à interroger et qui en reproduit les défauts. Une autre technique consiste à saisir, point par point, ce qui figure sur une carte à l’aide d’une table à numériser, ou sur un écran si l’on a auparavant scanné le document. C’est certainement la manière la plus commune de constituer une base « intelligente » mais les problèmes de précision géométrique et d’actualité de la carte initiale demeurent. Pour faciliter la saisie, des recherches sont menées dans le sens d’une interprétation automatique des cartes, ce qui permettrait de reconnaître la limite d’une parcelle, d’un bâtiment, etc. Si notre cerveau a l’habitude de déchiffrer une carte, en reconnaissant qu’une route est continue même si le nom d’une commune vient à la couper, l’interprétation pour un ordinateur est une tâche particulièrement délicate !

Nous pouvons donc produire des bases de données mais cette acquisition est aujourd’hui largement manuelle. À l’inverse, une fois toutes nos données saisies, il devrait suffire d’appuyer sur un bouton pour produire une carte. Il est en effet facile de faire une sortie graphique du contenu des bases. Reste que le résultat cartographique est la plupart du temps décevant, voire exécrable. La complexité de la réalisation d’une carte à partir de ces bases a été largement sous-estimée. Prenons l’exemple d’une rivière. Son nom a été intégré dans la base mais la position de cette écriture sur une carte doit satisfaire à une série de contraintes : il doit suivre la forme de la rivière, être répété, ne pas écraser des détails importants de la carte, ne pas se superposer à d’autres écritures… Si des logiciels ont été mis au point pour positionner automatiquement certaines écritures, comme la quasi-totalité des écritures horizontales d’une 1/25 000, le processus reste manuel pour d’autres, plus complexes. Nous pouvons donc aujourd’hui parler de cartographie assistée par ordinateur, mais pas de cartographie automatique.

Dialoguer avec la base de données

Cette évolution a transformé le cartographe en producteur de bases de données géographiques ! Lesquelles ont intégré l’univers professionnel depuis plusieurs années, révélant chaque jour leur intérêt. Collectivités territoriales, banques, sociétés de transports ou services d’interventions d’urgence ont souvent troqué leurs cartes et calques contre de telles bases. Elles permettent par exemple de localiser très rapidement une personne à partir de son adresse ou d’établir l’itinéraire optimum suivant certaines caractéristiques. Les particuliers commencent également à y avoir accès au travers d’atlas numériques qui permettent, en pointant sur une ville, d’accéder à toutes les informations la concernant, ou encore grâce aux systèmes de navigation embarquée qui équipent certains véhicules.

Mais, pour bien appréhender l’impact de ces nouvelles ressources, prenons l’exemple d’un randonneur qui se pose une question toute simple : « Dois-je traverser le ruisseau ici ? » Il interprète les éléments qui lui sont fournis par la carte. Sa première préoccupation consiste à se localiser. Puis l’analyse du contexte lui permet de savoir s’il doit le franchir à cet endroit ou non. Si ses moyens de se repérer sur la carte sont insuffisants, le risque d’erreur est important mais un équipement GPS pallie ce problème. La technologie actuelle permet de pouvoir reporter directement sur une carte numérique la localisation qu’il fournit. Pourtant, in fine, ce n’est pas la carte ni sa position sur la carte qui intéressent notre randonneur à ce moment précis, mais bien une réponse. Les cartes numériques, images de la carte papier, ne peuvent nous donner automatiquement cette information. Il faut pour cela utiliser des bases de données géographiques dans lesquelles l’itinéraire et le ruisseau ont été saisis. Il pourrait alors interroger la base : « L’itinéraire traverse-t-il le ruisseau à l’endroit où je me trouve ? » Un tel scénario n’est plus vraiment futuriste. La technologie existe, même s’il faut l’adapter. Des systèmes d’interprétation permettant d’utiliser un langage naturel, ou proche, pour interroger une base sont par ailleurs mis au point.

Demain, une cartographie
à la carte ?

Alors, est-ce pour autant la mort de la cartographie ? Probablement pas. Mais peut-être serons-nous amenés à être chacun un peu plus cartographe ! De même que l’informatique n’a pas réduit le nombre de livres, la carte a encore un bel avenir. Elle répond en général aux besoins d’une catégorie d’utilisateurs qui se posent certaines questions sans pour autant correspondre aux désirs particuliers de chacun. On peut glisser une carte dans son sac même si l’on connaît parfaitement son chemin. Simplement, on souhaite connaître l’altitude du sommet aperçu ou le nom du cours d’eau traversé. La carte incite à s’interroger, à découvrir, elle ouvre le champ de l’imaginaire et aucun système ne pourra jamais prévoir le dialogue que chacun entame avec elle.

Cependant, les bases de données géographiques ouvrent la voie d’une « cartographie à la carte » avec laquelle un utilisateur pourra spécifier la zone géographique qui l’intéresse, les objets qu’il veut voir figurer, la symbolisation… Si l’idée est séduisante, la mise en pratique est beaucoup moins évidente qu’il n’y paraît. Car toute carte, pour être lisible et interprétable, suppose une adaptation des données qualitatives et quantitatives par allégement du nombre de détails et simplification caractérisée des formes des tracés. C’est ce que l’on appelle la généralisation. L’excès d’informations est en effet pénalisant et les mêmes données numériques ne sont pas exploitables à toutes les échelles. Ainsi le contenu d’une carte au 1/100 000 ne être équivalent à celui d’une 1/25 000. Par exemple, certains virages d’une route sinueuse ne seront pas représentés à une petite échelle. En revanche, on souhaitera en conserver un, plus significatif. Cela suppose que l’on puisse qualifier la sinuosité et le degré d’exception d’un virage. En somme, faire une carte consiste à supprimer le superflu pour ne garder que l’exception.

Les bases de données, qui ont été conçues pour être utilisées dans des systèmes automatiques, se doivent d’être exactes. Lorsqu’on veut représenter une route, elle est saisie par son axe, donc sans épaisseur, mais la largeur du symbole viendra, si l’on n’y prend pas garde, écraser d’autres informations. Si les cartographes ont toujours su réaliser cette généralisation avec art, il est beaucoup plus difficile de faire comprendre à un ordinateur le degré d’importance des détails. Celui-ci transcrit une image véridique et les spécialistes ne savent pas encore lui apprendre à tricher… Il faut pour cela lui faire rechercher des informations implicites sur une carte (alignements de maisons, séries de virages…), ce qui signifie comprendre, nous, comment des lignes et des surfaces peuvent se combiner pour refléter une réalité. Quand nous voyons un groupe de maisons, notre cerveau l’interprète comme un village, alors que pour l’ordinateur, ce groupe reste un ensemble d’enregistrements isolés ! En somme, il faut apprendre aux ordinateurs à travailler comme des géographes (c’est-à-dire être capables d’analyser l’espace pour en déduire de nouvelles connaissances géographiques). Or l’ampleur de cet apprentissage a longtemps été sous-estimée.

Voir couler le ruisseau…

Il a été jusqu’ici question d’une carte qui, selon la définition du Comité français de cartographie, est une représentation conventionnelle généralement plane. Pourtant, comme on a pu le voir, les bases de données peuvent être saisies en trois dimensions. La carte 3D virtuelle est donc à portée de main… On sait qu’une carte en relief ou une maquette exercent un pouvoir de fascination plus important qu’une carte à plat ou un plan d’architecte. Mais les possibilités du 3D sont bien supérieures à celles des cartes en relief, qui plaquent sur une carte le terrain sans offrir une réelle vue tridimensionnelle de l’espace. Les bâtiments restent désespérément aplatis et les viaducs se retrouvent au fond des vallées ! Le numérique autorise la perception du relief tout en restant sur un support en deux dimensions (l’écran) : affichage suivant différents points de vue, effets d’ombrage, adjonction d’un « brouillard » qui s’épaissit quand la distance augmente. Dans le domaine de l’urbanisme ou de l’aviation, des simulateurs offrent des promenades virtuelles. Alors, pourquoi notre randonneur devant son ruisseau ne pourrait-il pas visualiser l’endroit où il se trouve en 3D, avec le pont enjambant un ruisseau que l’on pourrait voir couler… Là encore, les techniques existent.

La cartographie du futur est certainement synonyme d’une plus grande flexibilité dans sa conception, mais aussi d’une intégration des nouvelles possibilités offertes par le numérique : animation, visualisation 3D, interactivité, interrogation à distance de bases de données. Nous ne faisons qu’entrevoir l’immense potentiel d’une description détaillée de notre globe terrestre. Mais ce sont les données qui risquent de faire défaut. Car une base de données exhaustive, très précise et actuelle, du territoire, reste encore du domaine de l’utopie…

À lire : Thierry Lassalle, 4 000 ans d’aventures et de passion, éditions IGN-Nathan, 1990.

Un tourbillon de chiffres

La base de données topographique (BDTopo) de la zone de Grenoble couvre environ 550 km2, où figurent en partie la Grande Chartreuse et le Vercors au Sud, séparés par la cluse de l’Isère, les hautes collines du bas Dauphiné et une partie de la ville de Grenoble. Un rapide examen de son contenu permet de dénombrer : 26 439 ha de bois, 41 ha de broussailles, 2 856 ha de vergers, 14,5 ha de vignes, 2 294 km de routes (dont 431 km non revêtues), 916 km de chemins, 535 km de sentiers, 91 km de voies ferrées, 583 ponts, 225 481 km de lignes électriques, 676 km de cours d’eau, 69 ha de surfaces hydrographiques, 256 km de haies, 368 km de talus, 27 375 bâtiments divers totalisant 792 ha de surfaces bâties, 10,6 km de murs appartenant à des maisons ruinées, etc. 18 377 km de courbes de niveau ont été également saisies (entre 180 et 1 920 m d’altitude). La saisie d’une telle base a exigé le repérage manuel de plus de deux millions de points ! Mais cette description numérique du territoire ouvre la voie à une forme d’analyse géographique très fine des régions, reposant sur une quantification objective telle que la permette les SIG. Reste que cet usage particulier de la BDTopo, qui couvre aujourd’hui le quart de la France métropolitaine, est, à notre connaissance, encore largement inexploré.

Christophe Grateau, ingénieur géographe à l’IGN

Retour en haut