Advertentie sluiten

De derde bètaversie voor ontwikkelaars van het systeem iOS 13 verbergt veel nieuwe gadgets. Eén daarvan is automatische oogcontactcorrectie. De andere partij heeft dan de indruk dat je hem recht in de ogen kijkt.

Als u nu met iemand FaceTime-gesprek voert, kan de andere partij vaak zien dat uw ogen naar beneden gericht zijn. Dit komt doordat de camera's niet direct in het display zitten, maar op de bovenrand erboven. In iOS 13 komt Apple echter met een onconventionele oplossing, waarbij de nieuwe ARKit 3 een hoofdrol speelt.

Het systeem past de beeldgegevens nu in realtime aan. Dus zelfs als je ogen naar beneden gericht zijn, laat iOS 13 je zien alsof je de ander rechtstreeks in de ogen kijkt. Verschillende ontwikkelaars die de nieuwe functie hebben getest, zijn al op sociale netwerken verschenen.

Eén van hen was bijvoorbeeld Will Sigmon, die duidelijke foto's aanleverde. De linkerfoto toont de standaardsituatie tijdens FaceTime op iOS 12, de rechterfoto toont automatische correctie via ARKit in iOS 13.

iOS 13 kan oogcontact tijdens FaceTime herstellen

De functie maakt gebruik van ARKit 3 en zal niet beschikbaar zijn voor iPhone X

Mike Rundle, die aanwezig was, is opgetogen over het resultaat. Bovendien is het een van de kenmerken die hij al in 2017 voorspelde. Overigens is zijn hele lijst met voorspellingen interessant:

  • De iPhone zal 3D-objecten in zijn omgeving kunnen detecteren door middel van continu scannen van de ruimte
  • Eye-tracking, waardoor software bewegingen kan voorspellen en het mogelijk maakt om de gebruikersinterface van het systeem te besturen met oogbewegingen (Apple kocht in 2017 SensoMotoric Instruments, dat als toonaangevend op dit gebied wordt beschouwd)
  • Biometrische en gezondheidsgegevens verkregen door het scannen van het gezicht (wat is de pols van de persoon, enz.)
  • Geavanceerde beeldbewerking om bijvoorbeeld tijdens FaceTime direct oogcontact te garanderen (wat nu is gebeurd)
  • Dankzij machinaal leren kan de iPhone geleidelijk objecten tellen (het aantal mensen in de kamer, het aantal potloden op tafel, hoeveel T-shirts ik in mijn kledingkast heb...)
  • Directe meting van objecten, zonder de noodzaak van een AR-liniaal (hoe hoog is de muur, ...)

Ondertussen bevestigde Dave Schukin dat iOS 13 ARKit gebruikt om oogcontact te corrigeren. Tijdens langzamer afspelen kun je zien hoe de bril plotseling vervormt voordat hij op de ogen wordt gezet.

Ontwikkelaar Aaron Brager voegt er vervolgens aan toe dat het systeem gebruik maakt van een speciale API die alleen beschikbaar is in ARKit 3 en beperkt is tot de nieuwste iPhone XS/XS Max- en iPhone XR-modellen. De oudere iPhone X ondersteunt deze interfaces niet en de functie zal daarop niet beschikbaar zijn.

Bron: 9to5Mac

.