Stel je een chatbot voor die niet vastzit aan wat hij maanden geleden heeft geleerd, maar die meegroeit met elke vraag die je stelt. Dat is precies waar
Google nu mee pronkt. Onderzoekers van het bedrijf melden dat ze een AI-architectuur hebben ontwikkeld die zichzelf continu kan bijscholen zonder opnieuw volledig getraind te hoeven worden.
In een
nieuwe publicatie beschrijven ze hoe hun eerdere concept Titans wordt gekoppeld aan een fonkelnieuw raamwerk, MIRAS. Samen vormen die twee een soort langetermijngeheugen dat AI-modellen voortdurend up-to-date houdt. Geen gigantische hertrainingen meer; de AI leert gewoon door terwijl je ermee werkt.
Waarom dit zo bijzonder is
Huidige modellen, ook de grootste chatbots, zijn beperkt tot de informatie die in hun trainingsdata zat. Nieuwe kennis toevoegen kost nu nog enorme hoeveelheden rekenkracht, tijd en geld. Google’s nieuwe aanpak moet dat probleem oplossen.
Hoe Titans dat flikt
De architectuur is een slimme mix van bekende technieken: recurrent neural networks voor geheugen en transformermodellen voor snelheid en precisie. De truc is dat de AI realtime informatie van gebruikers kan opnemen, direct in een gesprek.
En volgens Google is het resultaat indrukwekkend: Titans presteert in tests niet alleen beter dan klassieke transformermodellen, maar zelfs beter dan recente hybrides zoals Mamba-2.