Vooraleer een drone weet naar waar hij moet vliegen, moet hij eerst zijn eigen positie kunnen bepalen. De lokalisatie van de drone kan absoluut zijn, bijvoorbeeld aan de hand van global navigation satellite system (GNSS) coördinaten en gekende punten, of relatief, waarbij de afstand tot een bepaald object gebruikt wordt. In dit blogartikel gaan we dieper in op de verschillende lokalisatietechnieken voor drones.

In een outdoor omgeving volstaat de lokalisatie aan de hand van GNSS of GPS satellieten om de drone te lokaliseren. Hiermee kan een nauwkeurigheid van 1 meter bekomen worden. Om de precisie te verhogen wordt er daarnaast ook gebruik gemaakt van zogenaamde ground control points (GCPs). Dit zijn referentiepunten op de grond waarvan de geografische locatie gekend is en die gebruikt kunnen worden om de absolute locatie van foto’s gemaakt met een drone tot op een paar centimeter te kennen, hetgeen men geo-referencing noemt.

Om de nood aan ground control points te reduceren en toch dezelfde nauwkeurigheid te halen, kan er ook gebruik gemaakt worden van ofwel post-processing kinematics (PPK) ofwel real-time kinematics (RTK). Bij een RTK drone wordt de data die ontvangen wordt van de satelliet meteen gecorrigeerd aan de hand van de data van een GNSS ontvanger op een vast grondstation. Hiervoor is ononderbroken communicatie nodig tussen het grondstation met GNSS ontvanger, het drone basisstation en de drone zelf.


Afbeelding 1: Schema RTK-positionering – bron: www.wingtra.com

Bij een PPK drone wordt alle data van de satellieten opgeslagen door de drone om te gebruiken na de vlucht. Ook de data van de GNSS ontvangen op een vast basisstation wordt opgeslagen en na de vlucht gebruikt om de satellietdata te corrigeren. Er is geen directe communicatie nodig tussen het GNSS grondstation en het drone basisstation. Enkel de telemetrie tussen de dronezelf  en het drone basisstation zijn nodig.


Afbeelding 2: Schema PPK-positionering – bron: www.wingtra.com

De GNSS data van satelliet en het GNSS grondstation, samen met de telemetrie worden na de vlucht gebruikt voor precieze geo-referencing van de foto’s gemaakt door de drone. Zeker in de buurt van obstakels is RTK niet zo betrouwbaar. Het gebeurt regelmatig tijdens een vlucht dat de connectie even wegvalt waardoor de locatie voor bepaalde foto’s niet gekend is. Met PPK en RTK wordt de absolute locatie van de drone (of de foto’s) bepaald.

Het is ook mogelijk om de locatie van de drone te bepalen relatief ten opzichte van andere objecten, bijvoorbeeld om botsingen te vermijden of om de locatie van de drone te bepalen ten opzichte van een gekende kaart en referentiepunten. Hiervoor bestaat een brede waaier aan andere sensortechnologieën. Vaak worden meerdere sensoren ingezet om de nauwkeurigheid en betrouwbaarheid van lokalisatiesystemen te verhogen en wordt de informatie van de verschillende sensoren gecombineerd. Dit principe heet sensorfusie of sensor fusion. Voorbeelden van verschillende types sensoren zijn:

  • Range finders: meten de afstand tot objecten in de omgeving.
    • Ultrasone sensoren waarbij de afstand gemeten wordt tot een object door de tijd te meten tussen het uitzenden van het ultrasone signaal en het ontvangen van het gereflecteerde signaal, zoals parkeersensoren bij auto’s.
    • Time-of-flight (TOF) camera’s zijn gebaseerd op hetzelfde principe als ultrasone sensoren, maar gebruiken licht in plaats van geluid.
    • Infrarood licht of lasers. Een gekend voorbeeld hiervan is de light detection and ranging (lidar), hetgeen eigenlijk een ronddraaiende laser range finder is. Een lidar wordt vaak gebruikt om volumeopmetingen te doen, dus voor een concrete missie van de drone in plaats van voor het verhogen van de precisie van de vlucht zelf.
  • Ultra-wide band (UWB) technologie wordt vaak gebruikt voor indoor lokalisatie. Hierbij is het nodig om tenminste drie UWB bakens te installeren voor een accurate triangulatie van de UWB ontvanger op de drone. Indien er veel metaal in de omgeving is of indien er veel obstakels zijn, is deze methode minder accuraat.
  • Radiofrequency-identification (RFID) of detectie van radiogolven kan gebruikt worden indien zogenaamde RFID tags aangebracht worden op gekende locaties waarmee de drone gelokaliseerd kan worden in de ruimte.

Veel (indoor) lokalisatiesystemen zijn gebaseerd op visie, voorbeelden hiervan zijn:

  • Optical flow is een techniek waarbij de beweging tussen de omgeving en de sensor gebruikt wordt om de positie van de drone te schatten. Deze methode is weinig betrouwbaar indien de drone aan hoge snelheid beweegt, als er geen structuur is in de omgeving of als de omgeving zelf niet statisch is, zoals bijvoorbeeld boven een rivier. Een manier om de betrouwbaarheid te verhogen is door een event-based camera te gebruiken. Deze zijn minder gevoelig aan motion blur of onder- en overbelichting dan gewone camera’s. Dat komt omdat elke pixel in een event camera onafhankelijk reageert op veranderingen in belichting. Enkel als de belichting voor een bepaalde pixel verandert wordt er informatie opgeslagen over die verandering (= een event). De camera verzamelt de informatie van de veranderingen gezien door elke pixel om een beeld te genereren met heel hoge tijdsresolutie. Deze camera’s kunnen dus
  • Men kan ook de afstand tot een object schatten door structured light of een bepaald lichtpatroon te projecteren op de omgeving. De afwijkingen van het geprojecteerde patroon op de omgeving ten opzichte van het uitgezonden 2D patroon laat toe om een 3D beeld te maken van die omgeving.
  • Identificatie aan de hand van referentiepunten of -objecten zoals ArUco markers. Deze markers zijn vierkant en bestaan uit een brede zwarte rand met daarbinnen een wit-zwart geblokte structuur, gelijkaardig aan een QR code. Elke code is uniek en correspondeert met een bepaalde positie in de ruimte. Deze markers moeten voordien aangebracht worden en de positie van de markers moet gekend zijn.
  • Stereovisie gebruikt twee camera’s om de afstand tot een object te schatten. Dit is hetzelfde principe als het menselijk dieptezicht op basis van onze twee ogen die objecten observeren onder een licht verschillende invalshoek.

Indien een drone in een onbekende omgeving zonder GNSS sensor vliegt is lokalisatie erg uitdagend. Een techniek die hier een oplossing aan kan bieden is simultaneous localization and mapping (SLAM), waarbij de drone zowel de omgeving in kaart brengt als zichzelf lokaliseert op die kaart. Voor accurate SLAM technologie is het cruciaal dat hetzelfde oriëntatiepunt geobserveerd vanuit een verschillende positie correct teruggevonden kan worden. De uitdaging is dus om de oriëntatiepunten goed te kiezen op basis van herkenbaarheid maar ook op basis van unieke kenmerken. Indien de omgeving niet gekend is, is dit geen evidentie! Er gebeurt momenteel nog veel onderzoek op deze techniek.

 

Auteur
PETRA VAN MULDERS
Petra is drone cluster manager van EUKA en projectleider bij Flanders Make voor allerlei projecten waar drones aan bod komen. Ze heeft een achtergrond als deeltjesfysicus en werkte samen met het CERN.

Contacteer EUKA/Flanders Make voor meer informatie
Updates en nieuwe artikels ontvangen in je mailbox? Schrijf je dan snel in voor onze nieuwsbrief!

Pin It on Pinterest