Het leek er even op dat Apple op AI-gebied de boot zou missen. Terwijl Google, Microsoft en zelfs Meta met aankondiging na aankondiging afkwam om nieuwe, concrete mogelijkheden aan te kondigen en die meteen ook ter beschikking te stellen van de gebruiker, bleef het bij Apple angstwekkend stil.
Er waren wel wat geruchten en publicaties van researchers, maar geen concrete toepassingen. Toch mogen we de hoop niet opgeven, want de aankondigingen zelf blijven heel interessant.
Zo ook dit bericht, dat Apple verleden week verspreidde, over zijn research. Wetenschappers hebben namelijk een paper gepubliceerd over een systeem dat zij ReALM noemen, voor Reference Resolution as Language Modeling. Dat is een model dat context kan verstaan, en bijvoorbeeld visuele elementen op een scherm kan omzetten naar tekstformaat en vervolgens het taalmodel kan verfijnen, waardoor het bij dit soort taken beter presteerde dan GPT-4.
In de praktijk zou dit kunnen betekenen dat je voornaamwoorden kunt gebruiken en naar dingen op het scherm kan verwijzen. Je ziet bijvoorbeeld een foto van een voetballer en vraagt: "Wie is hij?" En de assistent zou weten dat je het beeld van de persoon bedoelt. Het kan ook worden gebruikt om bestuurders te helpen bij het navigeren door infotainmentsystemen of om gebruikers met een handicap te helpen.
https://www.macrumors.com/2024/04/02/apple-reveals-new-ai-sy ...
|