알파고의 기원
알파고는 알파벳의 구글 딥마인드에서 개발한 바둑 AI인공지능 프로그램이다. 오직 바둑만으로 프로기사를 이긴 최초의 프로그램이자 등장과 동시에 바둑의 패러다임을 완전히 바꿔버린 인공지능이기도 하다. 이름에서 "Go"란 일본어로 바둑을 뜻하는 碁(ご(go), 한국 음으로 바둑 기)를 의미하는데, 이는 일반적으로 서구 언론에서 바둑을 의미할 때 "고"란 말을 쓰기 때문에 지어진 이름이다. 2016년 3월 15일, 한국기원에서 (명예) 프로 九단 단증을 수여하게 되어 알파고 九단이 되었다. 또한, 객원기사 자격으로 한국기원에 등록되었기 때문에, 자격상으로는 언제든지 한국기원에서 개최하는 대회에 참가할 수 있다. AlphaGo의 가장 혁신적인 측면 중 하나는 학습을 활용하는 것인데, 이 정도는 AI가 찾아오는 오를 통해 극한의 행동을 학습하고, 행동 결과에 따라 작곡가나 페널티의 형태로 피드백을 받을 수 있도록 도움을 주고 있다. AlphaGo의 강화하는 경우 학습은 스스로와 완전한 게임을 통해 개선 능력을 촉진하고, 인간이 개입하지 않고 반복적으로 전략을 다듬어 승률을 올리고 있다. 이 셀프 플레이는 AlphaGo의 학습 과정을 기념하여 이전에 인간 플레이어를 단축하지 않고 새로운 움직임을 목격하게 했다. 딥 러닝과 강화 학습은 완전히 현실 세계의 문제를 해결하는 데 있어 AI의 혁신적인 잠재력을 보여주는 계기를 만들었으며, 이러한 가을은 AlphaGo의 바둑 능력을 향상할 수 있을 뿐 아니라 의사결정과 다목적력이 필요한 다른 분야의 엄청난 발전의 가능성을 만들어 냈다. AlphaGo는 AI가 어떻게 자율적으로 학습하고 진화할 수 있는지 보이도록 움직이는 다양한 범위에서 까다로운 주제를 해결하는 것을 목표로 하는 새로운 세대의 기계 러닝 모델에 불어넣었다.
알파고의 사양
알파고의 초기 하드웨어로는 CPU와 NVIDIA GPU를 이용한 병렬 계산을 사용한다고 발표했다. 물론 가장 중요한 것은 하드웨어보다 소프트웨어 쪽이였다. 이렇게 병렬연결된 상태의 알파고 vs 싱글 알파고 간의 바둑에선 77% vs 23%의 승률을 보여주었으며, 개별 컴퓨터가 20% 이상의 승률을 보여줬다는 것만으로도 얼마나 학습이 잘 되어 있는지를 알려주는 대목이었다.판후이와의 대결에서의 알파고는 1,202개의 CPU와 176개의 GPU를 사용했다. 2016년 3월의 이세돌 九단과의 대결에서는 GPU 대신 48개의 TPU를 사용했다. 마스터 버전과 제로 버전에서는 대폭 줄여 4개의 TPU만을 사용했다. TPU라는 것은 딥 러닝에서 주로 사용되는 벡터/행렬 계산을 병렬처리할 수 있게끔 특화된 하드웨어이다. 물론 GPU도 해당 목적으로 사용되기는 하지만, GPU에 비해 TPU는 넘사벽급의 와트당 전성비를 자랑한다. 결국 구글은 1년 전부터 TPU를 사용하고 있었고, 딥 러닝 오픈소스 툴 텐서플로도 TPU용으로 개발된 것이었으며, 외부에 공개한 TensorFlow는 GPU용으로 이식한 것이다. 알파고가 항복하면서 띄운 팝업창의 모습을 보면 최소한 모니터가 설치된, 클라이언트에 해당하는 컴퓨터에서는 우분투가 사용되는 듯하다. 관련기사 다만 분산 컴퓨팅을 하는 알파고의 특성상 여러 개의 컴퓨터와 연동되어 작동하게 되어 있는데, 나머지 시스템의 OS도 우분투인지는 알려지지 않았다.
알파고 대 이세돌 – AI의 전환점
알파고의 가장 빛나는 순간은 2016년 3월, 세계에서 가장 유명한 바둑 선수 중 한 명인 이세돌과 서울에서 열림 5 대국에서 대국을 벌였을 때였다. 이전에는 AI와 게임 커뮤니티의 많은 전문가가 커뮤니티와 공유로 유명한 게임인 바둑을 마스터할 수 있는 AI의 능력에 관계가 있었으며, 움직임의 수는 방대하지만 유한한 체스와 운전 바둑은 모든 적격 한 게임 상태를 자랑하기 때문에 대부분의 사람에게 허용하기 어려운 점이 있었다. AlphaGo와 Lee Sedol의 대립은 기술과 인간의 능력의 관계점을 상징하며 빠르게 전 세계의 주목을 받았다. 게임이 실행 가능한 AlphaGo의 성과는 모든 기대를 뛰어 넘었다. AI는 움직임을 예상하고, 복잡한 전략을 실행하고, 앞으로로 이세돌의 플레이스타일에 대한 분석을 통해 경기를 진행했다. AlphaGo는 5게임 중 4게임에서 승리함으로써 승리를 더 많이 얻었을 뿐만 아니라 사고와 문제 해결에서 AI의 인식 능력을 재정했다. 이 승리는 바둑의 영역을 넘어 심오한 의미를 확증했다. 그것은 AI가 경계를 뛰어넘어 인류를 보호하고 보호하는 것을 도울 수 있는 잠재적인 효과를 보여주었으며, 이 승리는 AI의 미래, 다양한 산업에 종사하는 응용 프로그램, 그리고 그 발전을 위한 다양한 분야의 고려 사항에 대한 광범위한 토론을 불러일으켰다. 더욱이 그것은 인간과 기계 사이의 진화하는 관계를 강조하여 함께 경쟁하고 통합과 강화를 강조했으며, AlphaGo의 성공은 AI에 대한 추가 연구와 투자를 촉진하여 우리의 환경을 계속 형성하는 혁신적인 것을 기념했다.
알파고의 진화
AlphaGo가 더한 기본 원리를 바탕으로 DeepMind는 2017년에 AlphaGo Zero를 출시했다. 인간의 게임 데이터에 대한 의존성이 없고 훨씬 더 편집된 반복을 하는 프로그램이며, 이 플레이한 게임은 인간에서 학습한 이전 버전과 작동하여 AlphaGo Zero는 처음부터 시작하여 사전 인간의 입력 없이 전략을 반복적으로 개선하는 셀프 플레이를 가능하게만 Go를 하는 방법을 배웠다. AlphaGo에서 AlphaZero의 진화는 일반화된 AI 시스템 개발을 가능하게 하는 중요한 도약을 실현했다. AlphaZero는 기본적으로 악의적으로 조정하는 체스와 쇼기(일본식 체스)를 포함하여 다양한 게임을 마스터함으로써 다재다능함을 보여주었는데, 이러한 활동적인 AI가 학습된 전략을 여러 가지로 이전할 수 있는 잠재력을 보여주었고 학제 간 지식과 문제 해결 능력이 필요한 응용 프로그램을 연구하는 길을 열었다. AlphaZero의 성공은 연구자들이 과학 연구부터 정책 예측에까지 범위를 넓힐 수 있는 환경을 제공해 준 것이다. 게다가 AlphaGo가 보행자 한 부분은 보드 게임의 범위보다 훨씬 더 많은 응용 프로그램을 찾을 수 있다. 예를 들어, 의료 분야에서 AlphaGo의 구성원들을 포함하는 AI 기반 모델은 이해하고 새로운 약물을 개발하는 데 중요한 요소로 활용되는 힘을 예측하는 데 도움이 줄 수 있게 된 것이다.