Poszedłem do laboratorium @DvijKalaria w @berkeley_ai i zagrałem w ping ponga przeciwko jego robotowi, Oreo. Jako dziecko grałem w ping ponga mnóstwo. To było odpowiednio surrealistyczne i jeden z tych momentów "chciałbym móc powiedzieć o tym swojemu ja z liceum". Tenis stołowy to jeden z trudniejszych sportów dla robotów. Piłka może poruszać się z prędkością ponad 30 mph z dużym spinem, intencje ludzkiego przeciwnika są ukryte, a całe ciało musi współpracować. Oreo to pełnowymiarowy humanoid trzymający prawdziwą rakietkę, a on nauczył się kluczowych ruchów, takich jak zamachy, obserwując Dvija w akcji. Żadne dane treningowe nie były zbierane przez robota. Jedna osoba pokazuje ruch, a polityka się uogólnia. Sposób, w jaki to działa, jak zrozumiałem: - Inteligentny system (hierarchiczny planista) najpierw ustala, dokąd poleci piłka i wybiera najlepszy typ uderzenia, na przykład zamach forehandowy lub backhandowy. - Ten plan następnie pomaga w treningu "mózgu" robota (polityka RL) w wirtualnej symulacji. Mózg uczy się przez próbę i błąd, otrzymując nagrody, gdy naśladuje kilka przykładowych ruchów. - Po przeszkoleniu w symulacji, całe ustawienie jest stosowane do rzeczywistego robota, aby mógł grać na prawdziwo. Ludzkie demonstracje są zasadniczo odniesieniowymi ruchami. Budują robota, który oglądał więcej ludzkiego tenisa stołowego niż jakikolwiek człowiek, i wykorzystuje to do rozwijania własnej gry. Wciąż wygrałem. (Ledwo. Ale to się nie utrzyma)
Śledź pracę Dvija tutaj: I dziękuję @hananyss za pozwolenie na dołączenie!
319