Google weet dat het een probleem heeft. Meerdere problemen zelfs. Enerzijds is er het feit dat nepnieuws soms heel hoog in de zoekresultaten opduikt, en het vertrouwen van de mensen in de zoekmachine ondergraaft. Anderzijds is er het feit dat advertenties die via het Google adverteernetwerk verdeeld worden, terecht komen bij video's waar de adverteerders helemaal niet geassocieerd worden. En ook zij verliezen hun vertrouwen in Google.
Tijd dus om daar iets aan te doen. Google heeft daarom deze week Project Owl voorgesteld, dat specifiek de volgende 3 dingen bevat:
- een nieuw feedback formulier, dat gaat over de zoeksuggesties die je te zien krijgt. Tik je sommige woorden in als trefwoord dan krijg je om een of andere reden nog andere woorden als suggestie voorgeschoteld, die gecombineerd heel beledigend kunnen overkomen - seksistisch, racistisch, homofoob, enz. Dit formulier moet je helpen om dergelijke combinaties te melden. Tevens maakt Google een formeel beleid bekend met de redenen waarom suggesties verwijderd kunnen worden.
- een tweede feedback formulier gaat over de "snippets", de korte stukjes tekst onder de titel van een pagina in de zoekresultaten. Ook daarover kwamen klachten binnen, en dit formulier moet dat verhelpen.
- en tot slot belooft Google dat het meer nadruk zal leggen op content van betrouwbare bronnen in zijn zoekalgoritme, wat de kwaliteit van de zoekresultaten zou moeten verbeteren.
Bij Search Engine Land vind je een uitgebreid artikel over de achtergrond van deze problemen en hoe de verschillende pijlers van Project Owl concreet uitgewerkt worden.
'Slechte' YouTube video's bekijken is geen pretje...
Een ander probleem van YouTube is dus het feit dat het steeds meer het vertouwen van adverteerders verliest, omdat hun advertenties terecht komen bij filmpjes met twijfelachtige content. Hiervoor heeft Google alle hens aan dek geroepen, want advertenties zijn nu eenmaal de core business van Google. Daarom heeft Google menselijke redacteurs aan het werk gezet, die de inhoud van die filmpjes moeten beoordelen.
Elke dag staan zij op, loggen in op hun computers en beginnen zij die filmpjes te bekijken. Zij letten op of er geen geweld in voorkomt. Of er geen hatelijke taal in de titel van het filmpje staat. Zij beslissten of een bepaald filmpje als "beledigend" of "gevoelig" betiteld moet worden.
Google doet dit eigenlijk omdat de artificiële intelligentie niet slim genoeg is om die beslissingen zelf te maken. De menselijke kijkers trainen de AI, als het ware. Maar uit een artikel bij Wired blijkt dat deze menselijke beoordelaars, de 'ad raters' eigenlijk een zware job hebben. Zo leuk is het niet om al die hatelijke content te moeten bekijken. Bovendien worden zij vaak erg laag betaald - vaak niet meer dan 15 dollar per uur. Zij zijn dan wel "medewerkers" van Google, maar zij genieten lang niet van de voordelen van de mensen die op de Google campus in Mountain View werken...
Het artikel bij Wired gaat ook in op het spanningsveld menselijke input - artificiële intelligentie, hoe het laatste niet zonder het eerste kan, maar hoe de mensen zichzelf overbodig maken eens de AI slim genoeg geworden is...
http://searchengineland.com/googles-project-owl-attack-fake- ...
|