OpenAI, een wetenschappelijk instituut gericht op artificiële intelligentie, heeft een AI Minecraft leren spelen. De AI moest daarvoor wel 70.000 uur aan Minecraft filmpjes tot zich nemen.
In een blog post lieten de wetenschappers zien hoe ze te werk gingen. Ze gebruikte een «Video PreTraining» techniek om een neural network de game te leren spelen. Wetenschappers verzamelden hiervoor 2000 uur aan videomateriaal waarin de beweging van de muis en het toetsenbord opgenomen wordt.
Met die data ontwikkelde de wetenschappers een systeem waarmee de AI de volgende stap in een video kon voorspellen. Vanuit daar trainde de wetenschappers het AI-systeem met 70.000 uur aan Youtube filmpjes. Na het zien van al die filmpjes kon de AI de video's kopiëren. Zo weet het systeem dat het bomen moet slaan voor hout en dat het met dat hout een crafting table kan maken.
De AI wist ook complexere acties uit te voeren. Zo kan het zwemmen, jagen en eten. De AI kan zelfs een techniek die bekend staat als «pillar jumping.» Hiermee kan een speler steeds hoger komen door constant te springen en blokjes onder zichzelf te plaatsen.
De wetenschappers bij OpenAI noemde het systeem nog een «foundation model.» Op dit moment kan de AI vooral dingen doen die vroeg in de game voorkomen, zoals houten en stenen tools maken, kisten plunderen en zelfs een huisje bouwen. Meer data zou het systeem nog slimmer kunnen maken.
De onderzoekers gebruikten " versterkend leren" om de AI te «belonen» voor het uitvoeren van bijzonder moeilijke uitdagingen. Het beloningssysteem werd zo effectief gebruikt dat het model met succes een diamond pickaxe kon maken, iets dat een lange reeks taken vereist.
OpenAI heeft al eerder een computer weten te trainen via een game. Zo kwam