Digital

Was soll dieser schwarze Punkt am neuen iPhone?

Apple hat am Dienstag neue iPhones vorgestellt. Bei den Pro-Modellen versteckt sich neben der Dreifachkamera ein schwarzer Punkt. 

14.10.2020, 15:35
Teilen
Die Pro-Modelle des iPhone 12 haben eine spezielle Funktion.
Apple

Mit Spannung wurden die neuen iPhones von Apple erwartet. Am Dienstagabend war es dann so weit. Bei den Pro-Modellen ist neben der Dreifachkamera ein schwarzer Punkt zu finden. User rätselten bereits, was es damit auf sich hat.

Die Pro-Modelle des iPhone 12 haben nämlich eine spezielle Funktion. Der Punkt auf der Rückseite ist eine Art Radar. Damit können die Handys ihre Umgebung mithilfe von Lasern erfassen.

"Pew", "Pew" – das neue iPhone 12 Pro hat also Laser. Wenn sie aktiviert werden, machen sie zwar keine Sounds wie bei "Star Wars", sorgen aber laut Apple für deutlich bessere Fotos. Versteckt ist dieser sogenannte Lidar-Scanner auf der Rückseite der Pro-Modelle im Kameramodul hinter einem unscheinbaren schwarzen Punkt.

Lidar ist quasi die Geheimwaffe der neuen iPhones. Der Begriff ist eine Abkürzung für "Light Detection and Ranging". Das Konzept von Lidar ist nicht neu. Schon in den 1960er-Jahren gab es erste Versuche damit. Die Technologie wurde 1971 auch bei der Apollo-15-Mission genutzt, um die Mondoberfläche zu erfassen. Lidar kam auch beim Militär zum Einsatz.

Fledermäuse mit Laser

Was aber kann das iPhone damit tun? Kurz gesagt: Das Handy kann die Umgebung bis zu fünf Meter weit kartografieren. So sendet das Gerät Laser aus und misst, wie schnell die Strahlen zurückkommen. Es ist ein bisschen so, wie Fledermäuse mit Schall sehen – einfach mit Lasern. Unsere Augen können die Laserstrahlen nicht sehen. Lidar hat Apple auch schon beim iPad Pro (2020) verbaut.

Was aber bringt mir das als Nutzer? Mit Lidar sollen Bilder in der Nacht deutlich besser werden. So soll der Autofokus der Kamera damit 6-mal schneller sein als bisher. Ebenfalls sind neu Fotos mit dem sogenannten Porträtmodus bei Dunkelheit möglich. Fotos, die so gemacht werden, können speziell bearbeitet werden. So kann man zum Beispiel im Nachhinein die Hintergrundschärfe einstellen.

Virtuelles Shopping

Allerdings dient Lidar nicht nur dazu, Tiefeneffekte zu erzeugen. So soll der Sensor auch Augmented Reality (AR) besser machen. Bei AR wird die echte Umgebung mit virtuellen Elementen überlagert. Das können zum Beispiel Filter sein oder virtuelle Objekte, die so präziser im Raum platziert werden können. Möglich werden damit auch neue AR-Games und AR-Shopping. So kann man zum Beispiel die Lampe schon bei sich zu Hause virtuell platzieren, bevor man sie online bestellt.

Vieles bleibt aber vorerst Zukunftsmusik. Abgesehen von den besseren Fotos, werden reguläre Nutzer nur wenig von der Lidar-Technologie merken. Es ist aber ein Steilpass an Entwickler. "Sie haben die Möglichkeit, die Zukunft zu testen. Wirklich spannend wird es, wenn die Apps künftig auf eine mögliche AR-Brille von Apple übertragen werden", schreibt Techradar.com.

Mehr zum Thema