Enkele nieuwtjes over artificiële intelligentie. Om te beginnen: Microsoft neemt maatregelen om te voorkomen dat mensen chatbots met een trucje dingen laten doen die niet mogen. In Azure AI Studio, een dienst die door OpenAI aangedreven wordt en waarmee ontwikkelaars aangepaste AI-assistenten kunnen bouwen, heeft Microsoft enkele beveiligingsfuncties ingebouwd.
Een daarvan is de "prompt shields", die moet ontdekken wanneer een gebruiker opzettelijk probeert een AI model te laten werken op een manier waarvoor het niet gemaakt is, en en dat dan moet blokkeren. Een andere functie moet de gebruiker verwittigen wanneer een model zelf aan het fantaseren gaat of foute antwoorden genereert. Meer bij Bloomberg (1)
Een tweede bericht betreft Anthropic, een startup die opgericht werd door voormalige leden van OpenAI en die een familie van grote taalmodellen ontwikkeld heeft, die Claude heet. Een van die taalmodellen, de Claude 3 Opus LLM heeft nu voor het eerst GPT4 verslagen in de Chatbot Arena. Dat is een populaire leaderboard waar AI onderzoekers de relatieve mogelijkheden van AI taalmodellen een score geven.
Voor het eerst zijn nu de beste modellen die momenteel beschikbaar zijn: Opus voor geavanceerde taken, Haiku voor kost en efficiency. En die zijn niet afkomstig van OpenAI. Waardoor op de sociale media de woorden "RIP GPT-4" al gretig gedeeld worden...
https://www.bloomberg.com/news/articles/2024-03-28/microsoft ...
https://arstechnica.com/information-technology/2024/03/the-k ...
|