Posted in Forschung

DeepMind lernt jetzt StarCraft II

DeepMind lernt jetzt StarCraft II Posted on 7. November 2016Leave a comment

Nachdem Google DeepMinds AlphaGo mit Lee Sedol den weltweit besten Go-Spieler geschlagen hat, versucht das Team hinter der Google-Akquisition nun, die nächste Nuss zu knacken. Mit StarCraft II haben sie sich dabei eine besonders schwere Nuss herausgesucht. StarCraft ist nicht rundenbasiert, sondern ein sogenanntes Echtzeitspiel. Die Entscheidungen die DeepMind trifft, müssen also schnell und akkurat sein. Dennoch kann man das Gelernte aus AlphaGo wenigstens teilweise anwenden, denn beide Spiele (Go und StarCraft) haben eine Gemeinsamkeit. Betrachten wir das Spielverhalten von Schach, Go und StarCraft, wird dies deutlicher:

  •  Schach
    • Strukturen sind zum Start gegeben
    • Ziel ist es, die gegnerischen Strukturen zu zerstören
  • Go
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, eine Strukturen so aufzubauen, dass man den Gegner beherrscht
  • StarCraft
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, gegnerische Strukturen zu zerstören und eigene Strukturen stabil zu halten

Vereinfacht gesagt: StarCraft ein Mix aus den beiden anderen vorgestellten Spielphilosophien. Ein möglicher Ansatz des DeepMind-Teams wird im Video deutlich. Der Eindruck vom Spielfeld wird in Feature Layern (Merkmalsebenen) abgebildet. Anhand dieser Darstellung kann DeepMind dann, die Strategien der Gegner abschätzen und daraus eigene Strategien entwickeln.




Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

WordPress spam blockiert CleanTalk.