Vaak zitten webbouwers meer in met een mooie lay-out en met SEO dan met toegankelijkheid - voor àlle gebruikers, ook mensen met een visuele handicap. Nochtans voorziet de html-code voldoende mogelijkheden om bijvoorbeeld blinden toch afbeeldingen te laten zien, via de alt= tag bij de afbeelding. De auteur van een artikel, de webbouwer moet maar gewoon die tag invullen, en de screenreader zal voorlezen waarover de afbeelding gaat.
Toch zijn er heel wat afbeeldingen zonder alt-tag op het web - en wij moeten toegeven dat ook wij aan dit euvel lijden. Google heeft nu in zijn Chrome browser een nieuwe functie ingebouwd, die gebruik maakt van machine learning om afbeeldingen te leren herkennen en dan de afbeelding te beschrijven. Deze tool maakt gebruik van dezelfde technologie die ook de Google Lens aandrijft.
Om de bezoeker van de pagina duidelijk te maken dat het om een door machine learning aangemaakte beschrijving gaat, en niet de alt-tag, zal de screenreader van de bezoeker vermelden "appears to be", plus de beschrijving. En al zou de beschrijving er af en toe naastzitten, dan is het nog altijd beter dan de huidige situatie, voor wie met een screenreader of een Braille display een website bezoekt waar de afbeeldingen geen alt-tag hebben. Want dan krijg je enkel het woord "image" of "image zonder label", of een de bestandsnaam van de afbeelding.
Meer bij Techspot.
https://tech.slashdot.org/story/19/10/12/0312228/new-chrome- ...
https://www.techspot.com/news/82286-chrome-now-uses-ai-descr ...
|