De volgende stap in AI is er, de LAM

Door: Jaap

02 februari 2024

Blog

Een LLM (taalmodel) is een mooie tool die je kan helpen. Het is de slimmere versie van jouw Siri, Alexa of Google Assistant. En ja, dat begon met chat, maar inmiddels kun je ook met ze praten, afbeeldingen sturen en video’s delen. Andersom ook, ChatGPT, Bard en dergelijke kunnen ook foto’s maken voor je, nou ja, genereren. Multimodaal is dat. Superhandige tools! Maar, wat als je wil dat ze iets voor je doen? Wat nou als het verder gaat dan vraag en antwoord.

Enter: Large Action Models

Een LLM is een model dat met je kan communiceren. Multimodale modellen doen dat op verschillende manieren, maar in de basis blijft het jij vraagt, de chatbot geeft antwoord. Steeds betere antwoorden, maar verder dan dat gaat het niet.

We hadden het er in onze eerste podcast al over, in 2024 verwachten we de volgende stap, een Large Action Model. Tot mijn milde verbazing is het al zover. Er is een eerste LAM die je kunt ervaren, Multi-On AI. Een model dat een LLM én LAM in één is. Laat het de nieuwigheid van de tool zijn, maar ik ben wel onder de indruk.

De LAM stelt je in staat een opdracht te geven zodat de LAM het werk doet. Bijvoorbeeld een mail voor je sturen, een meeting in de agenda plannen of een ticket voor je regelen. Het kan allemaal. Je moet nog wel wat denkwerk verrichten bij het schrijven van de prompt, maar als je dat een beetje slim aanpakt is dat geen obstakel.

Ik geef een voorbeeld van een opdracht die ik gevraagd heb:

‘Ga naar gmail en open een nieuwe mail voor Bas. Schrijf dat de meeting van morgen is afgelast omdat ik een dubbele afspraak heb. Maak er een grapje bij dat hij nu extra tijd heeft voor koffie of Red Bull. ‘Onderteken de mail met mijn handtekening en verstuur.’

Multi-On AI gaat aan het werk en somt alle stappen op. Vervolgens voert hij die uit en vertelt dit aan je (dat kun je uitzetten). Resultaat, Bas krijgt de mail met de gegeven informatie! Klaar! De innerlijke nerd in mij kijkt mee en verbaast zich over het zien van al die stappen. De gebruiker die werk gedaan wil hebben checkt wellicht nog even wat er verstuurd is, maar gaat ondertussen aan het werk.

Evolueren van LAM

Dit vind ik ontzettend tof, nu al! Het is een vreemde ervaring, maar een waar ik snel aan kan en wil wennen. En ik denk dat dit snel kan gaan. Een LAM gaat leren welke tools je gebruikt en hoe je doorgaans communiceert. Daarmee kunnen opdrachten steeds eenvoudiger worden. In plaats van dat je aanstuurt naar gmail kun je straks roepen, ‘stuur een mail’, of ‘stuur een appje’ naar wie dan ook.

Toegevoegde waarde

Ik denk dat dit de toegevoegde waarde is die we al jaren verwachten van een Siri, Alexa of Google Assistant. Dat maakt de persoonlijke assistent echt slim. Gedaan is het met de zoekresultaten op een vraag, vanaf nu is het antwoord dat de mail is gestuurd.

Big tech, aan jullie de beurt!

De Googles, Apples en Amazons van deze wereld zullen dit inmiddels hebben gebouwd, daarvan ben ik overtuigd. Het is volgens mij een kwestie van tijd dat dit te gebruiken is. In ieder geval heeft Google aangekondigd dat Bard straks achter de Google Assistent komt en gaan er geruchten dat Siri bij iOS 18 van Apple een stuk slimmer zal zijn. Ik hoop oprecht dat dit de richting is die ze ingeslagen zijn.

En natuurlijk zou het een absolute heldendaad zijn als deze LAM straks lokaal draait. Dat komt de snelheid van het model niet alleen ten goede (er hoeft geen connectie met servers ergens ver weg te worden gemaakt) maar het zou ook voor de privacy een overwinning zijn. Niet allemaal privacygevoelige data heen en weer sturen, gewoon lokaal uitvoeren en weer vergeten. En als dat allemaal bestaat en werkt ben ik best bereid om te roepen ‘Hey Siri!’ of ‘Oké Google!’ voor de LAM aan het werk gaat.

 

Lees meer blogposts van FortyTwoAI

Ook aan de slag met AI?

FortyTwoAI helpt je op weg om de stap te zetten!

Of het gaat om de eerste stap of om een verdiepinsslag te maken, FortyTwoAI is jouw aanspreekpunt om AI in jouw bedrijf te introduceren. Laten we wel wezen, AI is here to stay dus laten we dan meteen eruit halen wat erin zit!