Google의 기계 학습이 로봇을 인간을 잡는 로봇으로 바꾸는 방법

  • Aug 28, 2023

Google의 로봇 팔은 평평한 표면에 있는 모든 것을 82%의 확률로 잡을 수 있습니다.

인간에게 물건을 잡는 것은 말 그대로 어린이 놀이입니다. 아기는 손가락을 잡는 반사적 능력을 갖고 태어나는데, 시간이 지나면서 시각의 도움을 받아 다양한 모양의 물체를 더 정확하게 움켜쥘 수 있는 능력이 발달합니다.

Google은 이제 기계 학습을 사용하여 인간이 눈과 손의 협응에 의존하는 피드백 프로세스를 모방하여 그룹 로봇 팔이 집안의 물건을 잡도록 가르치고 있습니다.

이러한 과정을 통해 우리는 테니스 공을 제공하거나 설거지를 하는 등의 작업을 수행하기 위해 작은 모터 조정을 할 수 있습니다.

피드백 메커니즘 덕분에 Google은 라고 로봇 팔은 이제 "자체 그리퍼를 관찰"하고 물체를 잡을 때 동작을 수정할 수 있습니다.

또한보십시오

기계 속의 유령: 비캐리어스와 인간의 두뇌에 필적할 수 있는 AI를 찾아서

Startup Vicarious는 최초의 일반 인공 지능 시스템을 구축하는 것을 목표로 하고 있습니다. 단, 단기간에 기대하지는 마세요.

지금 읽어라

Google 과학자 Sergey Levine이 이끄는 연구원들은 오늘날의 로봇이 일반적으로 장면을 관찰하고, 모델을 만들고, 계획을 고안하고, 실행한다는 점에 주목했습니다. 로봇이 현실 세계의 혼란에 직면하면 이 방법은 무너집니다.

Google 연구원이 고안한 보다 인간적인 피드백 시스템은 팔에 카메라가 장착된 14개의 개별 로봇이 한 줄로 늘어서 있는 방식입니다. 각각은 실패와 성공에 대한 데이터를 공유합니다.

그런 다음 로봇의 '경험'은 기계 학습의 특정 분야인 CNN(컨볼루션 신경망)인 피드백 시스템을 훈련하는 데 사용됩니다.

CNN은 매일 로봇의 경험을 제공받아 카메라 이미지와 그리퍼의 움직임을 기반으로 로봇이 성공적인 그립 가능성을 판단하는 능력을 향상시킵니다. 또한 성공 가능성을 극대화하기 위해 조정을 수행할 수도 있습니다.

훈련 데이터는 2개월 동안 수집된 800,000회의 파악 시도로 구성되었습니다.

Google Research의 Levine이 언급한 주요 성과 중 하나는 과학자들이 움직임을 최적화하기 위해 로봇을 프로그래밍할 필요가 없다는 것입니다.

"결과는 지속적인 피드백입니다. 손과 눈의 협응이라고 부를 수 있는 것입니다."라고 Levine은 썼습니다.

그는 계속해서 "로봇은 자체 그리퍼를 관찰하고 실시간으로 동작을 수정합니다. 또한 그룹에서 단일 개체를 분리하는 것과 같은 흥미로운 사전 파악 동작을 보여줍니다. 이러한 모든 행동은 시스템에 프로그래밍된 것이 아니라 학습을 통해 자연스럽게 나타났습니다."

성공의 한 가지 징후는 Google의 방법이 이전에 사용된 유사한 방법의 실패율을 34%에서 18%로 절반으로 줄였다는 것입니다.

그만큼 연구 논문 로봇은 평평하지 않은 표면과 좁은 공간을 잡는 데 적합하지 않습니다.

그러나 연구자들은 부드러운 물체를 단단한 물체와 다르게 잡는 로봇의 경향에 만족합니다. 종이 티슈나 스펀지의 경우 로봇이 딱딱한 물체를 집으면서 물체를 집는 방식으로 진행됐다.

머신러닝과 로봇에 대해 자세히 알아보세요.

  • AI와 로봇으로 자동화될 최초의 10가지 직업
  • 인공지능의 다음 개척지는? 인간의 상식을 배우다
  • 기계 속의 유령: 비캐리어스와 인간의 두뇌에 필적할 수 있는 AI를 찾아서