Kombinierte 3D-Vision und adaptive Frontbeleuchtungssysteme für sicheres autonomes Fahren

01.09.2017 - 31.05.2020
Forschungsförderungsprojekt

Hervorgerufen durch den Trend zum hochautomatisierten bzw. autonomen Fahren befindet sich die Automobilindustrie aktuell im Umbruch. Fahrerassistenzsysteme, zu denen auch adaptive Frontbeleuchtung gezählt wird, machen enorme Fortschritte und bereiten den Weg auf. Ein grundlegendes Thema ist in diesem Zusammenhang die Weiterentwicklung der erforderlichen Sensorik, die Informationen zur Steuerung und Regelung von Assistenzsyste-men liefert. Dabei gibt es vor allem hinsichtlich der umfassenden Wahrnehmung der Umwelt Probleme zu lösen. Trotz der aktuell stark ausgeprägten Entwicklungsströmung betreffend Sensordatenfusion, bei der die Informationen mehrerer, unterschiedlicher Sensorarten (z.B. Kameravarianten, verschiedene Radar- und Lidarsensoren) zu einem Gesamteindruck zusammengefasst werden, ist momentan noch optische Bilderfassung im sichtbaren Spektralbereich die dominante Methode zur Objektdetektion und Modellierung der Umwelt. Bei Nacht sind die Bedingungen für diese optische Erfassung erschwert und erfordern Maßnahmen im Gesamtsystem, um die Wirkung eines Assistenzsystems deutlich zu verbessern. Beispielsweise könnte ein Kollisionswarnungssystem kurzzeitig bremsen, weil die optische Erfassung durch die vorausblickende Kamera nicht ausreichend genau ist. Da mangels tatsächlicher Kollisionsgefahr kein Bremsbedarf besteht, wäre der Fahrer durch dieses Verhalten erheblich irritiert. Ein zweites Beispiel, und Motivation für dieses Projekt, ist die Verbesserung der Videoansteuerung eines Fernlichtassistenten bzw. blendfreier Fernlichtsysteme, bei der es zu fehlerbehafteter Auswertung geometrischer Informationen (z.B. Entfernungsbestimmungen) kommen kann. So eine Fehlauswertung führt zu störendem Verhalten des Fernlichts, wodurch der Fahrer oder Gegenverkehr potentiell abgelenkt und sogar geblendet wären. Zur weitgehenden Optimierung der Umwelterfassung durch optische Sensorik ist es Ziel des Projektes, 3D-Bilderfassung durch Einbau je einer Kamera pro Frontscheinwerfer zu realisieren. Gegenüber einer zentralen Kamera hinter der Windschutzscheibe gemäß Stand der Technik steht bei diesem Ansatz die Kamera im direkten Kontakt mit der Scheinwerferelektronik, wodurch eine unmittelbare Interaktion zwischen Kamera und Scheinwerfer ermöglicht wird. Das zu entwickelnde Konzept eines integrierten, intelligenten Gesamtsichtsystems liefert folgende Resultate und ermöglicht Erkenntnisse über vertiefende Automationsschritte:

- Ausgerichtet auf stark verbesserte Bild- und somit Umwelterfassung, stellen die Scheinwerfer der zugeordneten Scheinwerferkamera eine bedarfsgerecht adaptierte Szenenausleuchtung zur Verfügung.

- Das stereoskopische, hoch auflösende Kamerasystem stellt stark verbesserte Information über für blendfreies Fernlicht relevante Daten wie Objektklassifizierung, Positionsdaten (horizontal, vertikal), Distanz, Bewegungsrichtung, Fahrspur, etc., bereit.

- Das stereoskopische Kamerasystem ermöglicht stark verbesserte Informations-aufbereitung für autonomes Fahren relevanter Daten wie erkannte Fahrspuren, Topologie, freier Raum, Hindernisse, Verkehrsteilnehmer, Fußgänger, etc.

Personen

Projektleiter_in

Subprojektmanager_innen

Projektmitarbeiter_innen

Institut

Förderungsmittel

  • FFG - Österr. Forschungsförderungs- gesellschaft mbH (National) Programm IKT der Zukunft Bereich Thematisches Programm Österreichische Forschungsförderungsgesellschaft mbH (FFG) Ausschreibungskennung IKT der Zukunft - 5. Ausschreibung (2016) Spezifisches Programm IKT der Zukunft

Forschungsschwerpunkte

  • Information and Communication Technology

Schlagwörter

DeutschEnglisch
Computer Visioncomputer vision
Maschinelles Lernenmachine learning
Umfeldwahrnehmungenvironment perception
Ground Truthground truth
Ground Truth Annotierungground truth annotation
Autonomes Fahrenautonomous driving

Externe Partner_innen

  • ZKW Lichtsysteme GesmbH
  • Emotion3D GesmbH