Til og med blinde kan ha nytte av kamerafunksjonen på iPhone 12 Pro (og Pro Max).
Jeg har alt skrevet om Lupe-funksjonen i iOS 14. Nå har jeg prøvd funksjonen i praksis, og i koronatiden der alle skal holde avstand, er det faktisk ganske nyttig. Det fungerer raskt, er enkelt å forstå og når jeg holder telefonen i hånda er jeg vel ikke så veldig spesiell – det gjør jo de fleste andre også!
iPhone/iPad med Lidar kan vise avstanden til personer som er mindre enn fem meter borte. Du kan få tilbakemelding på flere måter:
- Lest opp avstanden
- Tone som kan konfigureres til å få høyere frekvens når personen nærmer seg en gitt avstand fra deg
- Vibrering som blir raskere desto nærmere en person kommer
- Avstanden vises også i skjermbildet med en pil som peker i den retningen personen er
Funksjonen kommer i Lupe og er tilgjengelig på iPad 2020 Pro, iPhone 12 Pro og iPhone 12 Pro Max. Bruker du AirPods vil lyd plasseres slik at du hører retningen til personen(e).
Jeg brukte AirPods med lupe på veien til jobben i dag. Da jeg kom på bussholdeplassen ble jeg i praksis døvblind. Det var noen anleggsmaskiner rett ved holdeplassen og det bråket noe helt inn i hampen. Jeg brukte Lupe og fant ut at det ikke var noen andre på holdeplassen. Bråket var så intenst at jeg ikke hadde sjans til å høre når det kom en buss. Prøvde da med en annen app (Seeing AI), og faktisk leste den navnet på bussen da den kom. Jeg kom meg på og fant sete.
Så brukte jeg lupe for å sjekke avstanden til folk rundt meg. Det var lett å sjekke at jeg var godt innafor: 2,5 m til nærmeste person. Jeg sjekket avstand også på en litt mer folksom holdeplass litt seinere, og det kan du se i videoen nedenfor: