Abstract:
L'invention concerne un procédé de géo-référencement d'une zone au moyen d'un système optronique d'imagerie (100) qui comprend une étape d'acquisition de M images successives au moyen d'un détecteur (1 ), la zone imagée étant répartie entre ces M images, avec M ≥ 1. Il comprend en outre les étapes : de mesure de P distances d 1 , d 2 ,..., d P entre le système et P points de la zone dits points télémétrés, avec P ≥ 3, ces points télémétrés étant répartis dans K desdites images avec 1 ≤ K ≤ M, d'acquisition du positionnement x m , y m , z m , du détecteur aux dates d'acquisition des M images, de mesure de l'attitude φ m , θ m , ψ m du détecteur aux dates d'acquisition des M images, - d'acquisition des coordonnées dans ces K images des points dits points images (p- 1 , q- 1 ), (p 2 , q 2 ), - - -, (P P , q p ) correspondant aux P points télémétrés, et une étape d'estimation des paramètres de conditions de prise de vue x e , y e , z e , ψ e , θ e , φ e correspondant aux M images en fonction de positionnements, d'attitudes, des distances et des coordonnées des points images, en vue de corriger les erreurs sur les paramètres x m , y m , z m , ψ m , θ m , φ m de chacune des M images.
Abstract:
L'invention concerne un procédé de calibrage d'instruments de mesure d'un système optronique en mouvement, de positions P 1 , P 2 ,..., P i ,..., ce système optronique comprenant : - un dispositif d'acquisition (10) d'images d'une scène comprenant un objet fixe G 0 et, des moyens de poursuite (15) de l'objet fixe G 0 au cours de l'acquisition de ces images, des moyens d'obtention des positions (20) P 1 , P 2 ,... - au moins un instrument de mesure de la distance (25) et/ou un instrument de mesure d'angles d'orientation et/ou d'attitude (30) entre cet instrument de mesure et l'objet fixe G 0 , selon une ligne de visée LdV, II comprend les étapes suivantes : - acquisition à des instants t 1 , t 2 ,... d'au moins deux images, chaque image étant acquise à partir de positions différentes P 1 , P 2 ,... du système, l'objet fixe G 0 étant visé dans chaque image, mais sa position étant inconnue, acquisition aux instants t' 1 , t' 2 ,... de mesures de distance et/ou d'angle, synchronisation des mesures de distance et/ou d'angle avec les positions P 1 , P 2 ,... établies à des instants t 1 , t 2 ,..., estimation des défauts de mesure qui minimisent la dispersion d'au moins deux points d'intersection G ij entre la LdV à la position P i et la LdV à la position P j ; en fonction desdites mesures et des positions connues P i , P j du système.
Abstract:
L'invention concerne un procédé d'élaboration d'une base de connaissances d'images d'objets obtenues par un dispositif d'imagerie muni d'un capteur, qui comprend une étape de définition de N classes comportant chacune un ensemble d'objets représentés par une étiquette et un ensemble de caractéristiques, et une étape d'apprentissage de règles de décision associées à ces classes. Il comprend en outre les étapes suivantes : définition de K informations contextuelles de fond d'image f k , avec k variant de 1 à K et K>1, association d'une de ces informations de fond d'image f k à chaque objet, répartition des objets dans M nouvelles classes, avec N k et l'ensemble des caractéristiques de ces objets, définition pour chaque fond f k d'un sous-ensemble Q k de ces M classes associées à ce fond d'image, apprentissage de règles de décision pour chacun de ces sous-ensembles Q k .
Abstract:
L'invention concerne un procédé de géo-localisation d'un objet (O) fixe non coopérant au moyen d'un système (100) embarqué à bord d'une plate-forme mobile (10), équipé de moyens d'acquisition de la distance (2) entre l'objet et le système, des moyens d'acquisition de la position (1 ) du système, le procédé comportant des étapes de : -acquisition de deux mesures de distance (D1, D2) de l'objet par rapport à deux positions (P1, P2) distinctes du système, définissant ainsi deux couples « position - distance de l'objet», les positions étant celles du système et étant obtenues par les moyens d'acquisition de la position (1 ), et les distances étant obtenues par les moyens d'acquisition de la distance (2), acquisition d'au moins un autre couple « position-distance de l'objet », - calcul de la géo-localisation de l'objet (O) à partir de ces couples « position-distance de l'objet ».
Abstract:
La présente invention concerne un procédé de détermination de positions par un système optronique (18) dans une scène (10), la scène (10) comprenant des éléments de référence (12) de coordonnées géographiques connues, le système optronique (18) comprenant les éléments suivants intégrés dans ledit système optronique (18) : a. un imageur numérique, b. une mémoire dans laquelle est mémorisé, pour chaque élément de référence (12) de la scène (10), un indicateur représentatif dudit point associé aux coordonnées géographiques dudit point, c. un élément de visualisation des indicateurs mémorisés dans la mémoire, d. un module de mesure comprenant au moins un élément choisi parmi : un compas, un goniomètre et un télémètre, e. une unité de calcul, le procédé étant mis en œuvre par les éléments intégrés dans le système optronique (18).
Abstract:
L'invention concerne un procédé de repérage d'un plan de pose (16), mobile par rapport d'un véhicule (10), destiné à supporter au moins une charge utile (18), le plan de pose (16) faisant partie du véhicule (10), comportant un corps (12) pour lequel au moins un élément référencé (22) est défini, chaque élément référencé (22) comportant une plurarité de points référencés, le procédé étant mis en oeuvre par un dispositif de repérage (20) comportant une caméra (24)et un calculateur (26), le procédé de repérage comportant au moins une étape de : - prise d'une séquence d'images par la caméra (24), images comportant des points référencés, et - détermination, par le calculateur (26), de l'orientation angulaire ou de l'attitude de plan de pose (16) par rapport au corps (12) à partir de l'image.
Abstract:
L'invention concerne un procédé d'estimation de gisement d'un système optronique dans un repère géographique, le système optronique étant situé à une première position et désigné premier système optronique. Il comporte les étapes suivantes : - définir une configuration collaborative, - au moyen du premier système optronique et d'au moins un autre système optronique, lesdits systèmes optroniques étant respectivement situés en des positions distinctes et équipés de moyens de communication entre eux, et de dispositifs d'acquisition, acquérir dans une scène un ou plusieurs objets communs auxdits systèmes optroniques, la direction d'orientation entre chaque système optronique et chaque objet étant inconnue, - déterminer deux positions parmi celles desdits systèmes optroniques, - pour au moins un objet commun : ∙ mesurer l'angle relatif au moyen d'un dispositif de mesure d'angle relatif équipant le premier système optronique, ∙ mesurer l'élévation de l'objet au moyen d'un dispositif de mesure d'élévation équipant le premier système optronique, ∙ réaliser des mesures supplémentaires au moyen de chaque autre système optronique, - les deux positions et lesdites mesures constituant des observations, communication par l'autre (ou les autres) système(s) optronique(s) au premier système optronique des observations dont il ne dispose pas, - à partir des observations, estimation par le premier système optronique, du gisement du premier système optronique.
Abstract:
L'invention concerne un procédé de détermination de la direction absolue d'un objet d'une scène (1), avec une performance souhaitée prédéterminée. Il comporte une phase d'apprentissage et une phase d'opération en ligne, la phase d'apprentissage comportant les étapes suivantes : - acquisition par balayage circulaire au moyen d'un premier dispositif d'imagerie optronique de position fixe déterminée, d'une série d'images optroniques (2) partiellement recouvrantes, incluant une image ou plusieurs images de la scène (étape A1), - extraction automatique dans les images, de descripteurs définis par leurs coordonnées images et leurs caractéristiques radiométriques, avec au moins un descripteur de direction inconnue dans chaque recouvrement (21) d'images (étape B1), - à partir des descripteurs extraits dans les recouvrements entre images, estimation automatique de la rotation relative des images entre elles et mise en correspondance des descripteurs extraits dans les recouvrements (étape C1), - identification dans les images, d'au moins une direction géographique de référence connue (22) de précision compatible de la performance souhaitée, et détermination des coordonnées images de chaque référence (étape D1), - à partir des descripteurs extraits dans les recouvrements et mis en correspondance, de la direction et des coordonnées images de chaque référence, estimation automatique de l'attitude de chaque image, dite étape de recalage fin (étape E1), - à partir de l'attitude de chaque image, de la position et de paramètres internes du premier dispositif d'imagerie, et des coordonnées images de chaque descripteur, calcul des directions absolues des descripteurs selon un modèle prédéterminé de prise de vue du dispositif d'imagerie (étape F1), 39 la phase d'opération en ligne comportant les étapes suivantes : - Acquisition d'au moins une image de l'objet dite image courante (20), à partir d'un second dispositif d'imagerie de position fixe déterminée, (étape A2), - Extraction de descripteurs dans chaque image courante (étape B2), - Mise en correspondance des descripteurs de chaque image courante avec les descripteurs dont la direction absolue a été calculée lors de la phase d'apprentissage, pour déterminer la direction absolue des descripteurs de chaque image courante (étape C2), - A partir des directions absolues des descripteurs de chaque image courante, estimation de l'attitude de chaque image courante (étape D2), - A partir des coordonnées image de l'objet dans chaque image courante, de l'attitude de chaque image courante, de la position et de paramètres internes prédéterminés du second dispositif d'imagerie, calcul de la direction absolue de l'objet selon un modèle prédéterminé de prise de vue de chaque image courante (étape E2).
Abstract:
A method for geo-referencing an area by an imaging optronics system which comprises acquiring M successive images by a detector, the imaged area being distributed between these M images, with M≧1. It comprises: measuring P distances d1, d2, . . . , dP between the system and P points of the area, called range-found points, with P≧3, distributed in K of said images with 1≦̸K≦̸M; acquiring the positioning xm, ym, zm of the detector at acquisition of the M images; measuring the attitude &phgr;m, &thetas;m, ψm of the detector at acquisition of the M images; acquiring the coordinates in these K images of image points (p1, q1), (p2, q2), . . . , (pP, qP) corresponding to the P range-found points; and estimating the parameters of exposure conditions xe, ye, ze, ψe, &thetas;e, &phgr;e corresponding to the M images as a function of positionings, of attitudes, distances and coordinates of the image points, to correct errors on the parameters xm, ym, zm, ψm, &thetas;m, &phgr;m of each of the M images.
Abstract:
The invention relates to a method for geolocating a stationary non-interactive object (O) by means of a system loaded onto a mobile platform (10), provided with a means for acquiring the distance (2) between the object and the system and with a means (1) for acquiring the position of the system, the method comprising the following steps: acquiring two distance measurements (D1, D2) for the object relative to two separate positions (P1, P2) of the system, thus defining two “position/object distance” pairs, the positions being those of the system and obtained by the position acquiring means (1), and the distances being obtained by the distance acquiring means (2); acquiring at least one other “position/object distance” pair; and calculating the geolocation of the object (O) from said “position/object distance” pair.