카테고리 없음

분명히 고도화된 인공지능이 위험한 이유

두루미. 2020. 7. 14. 01:45

분명히 고도화된 인공지능이 위험한 이유

지능형 기계. 그러나 AI의 다른 많은 하위 분야가 있습니다. 지식 표현, 추론, 계획, 불확실한 의사 결정, 문제 해결, 인식. 기계 학습은 경험을 통해 개선될 수 있는 프로세스를 포함하기 때문에 이러한 모든 것과 관련이 있습니다. 이것이 바로 기계 학습이 의미하는 바입니다. 경험을 통한 성능 향상; 딥 러닝은 그 과정에 도움이 되는 기술입니다. 우리가 알 수 있는 한, 그것은 일반적인 지능을 생성하는 데 필요한 것을 가지고 있지 않습니다. 한 가지 예를 들자면, 인간이 사물을 알고 있다는 생각은 자명한 것처럼 보이므로 우리는 그것에 대해 논쟁 할 필요가 거의 없습니다. 그러나 실제 의미에서 딥 러닝 시스템은 사물을 모릅니다. 그들은 책을 읽음으로써 지식을 습득할 수 없고, 그것을 이용하여 인간이 논할 수 있는 전파 망원경을 설계하는 데 사용할 수 없습니다. 따라서 진전을 이루려면 딥 러닝이 제공한 진보를 확실히 밟아야 합니다. 효과적으로, 우리가 딥 러닝으로 발견한 것은 이전에 다양한 종류의 확률적 경사 하강 및 기타 속임수를 사용하여 가능했던 것보다 더 복잡한 회로를 훈련할 수 있다는 것입니다. 대부분의 사람이 20,000 단위 너비의 천 계층 네트워크를 구축할 수 있다고는 생각하지 않았을 것입니다. 따라서 2천만 개의 회로 요소가 있으며 한쪽 끝에 신호를 넣고 다른 쪽에 데이터를 넣고 2천만 개의 요소를 훈련하여 복잡한 기능을 표현할 수 있을 것으로 기대합니다. 배우다. 놀랍게도 그 능력은 비전, 음성 인식, 언어, 기계 번역 및 로봇의 물리적 제어와 같은 모든 종류의 새로운 경계를 열어줍니다. 훌륭한 발전이지만 전체 솔루션은 아닙니다. 그룹 이론 이상의 것은 수학의 전체 솔루션입니다. 흥미롭고 중요한 다른 수학 분야가 많이 있으며 그것들 없이는 기능할 수 없습니다. AI도 마찬가지입니다. 그래서 우리는 아마도 더 큰 개념적 진보 없이, 딥 러닝이 왜 작동하고 더 나은 방법을 이해하고, 그것을 사용하여 만들 수 있는 모든 다양한 응용 프로그램에 대한 이해를 높이기 위한 또 다른 10년의 진전 없이도 아마 볼 것으로 생각합니다. 그러나 우리가 돌아가지 않고 AI의 다른 모든 아이디어를 재통합하려고 한다면, 우리는 벽에 부딪칠 것입니다. 그래서 이 새로운 반짝이는 것에 대한 집착을 빨리 잃을수록 좋습니다. Steven Pinker : 더는 동의 할 수 없었습니다. 실제로 어떤 면에서 우리는 이미 벽에 부딪혔다. 또는 사용자 또는 질문-응답 시스템 사용자는 개별 단어를 연결하고 문장의 구문에 대해 깊이 이해하는 방식에 좌절했습니다. 또는 에 "카메라 없이 디지털 음악을 보여줄 수 있습니까? "카메라에 관한 토론과 함께 “X without Y”의 구문을 이해하지 못하는 음악 플레이어의 긴 목록을 제공합니다. 또는, "맥도날드가 아닌 즉석식 식당이 근처에 있습니까? "근처 맥도날드 목록을 얻습니다. 모든 정교함이 지역 요소 간의 연관성에 대해 훈련되고 있다는 점에서 시스템의 한계에 부딪치는 것은 어렵지 않습니다. 그러나 “딥 러닝”이라는 이름에도 불구하고, 그들은 대상이 무엇인지, 누가 누구에게 무엇을 했는지에 대한 지식 기반을 구축하지 않는다는 의미에서 얕습니다. 스튜어트 러셀 : 예. 내가 가장 좋아하는 예는, 그것이 묵시적인지 확실하지 않습니다. Siri에게 “구급차를 불러주세요”라고 말하고 Siri는 “좋습니다. 지금부터 구급차라고 부르겠습니다.” 스티븐 핑커 : 마르크스 형제 영화에는 "택시 불러주세요"라는 시퀀스가 ​​있습니다. "괜찮아. 당신은 택시입니다.” AI 이야기가 마르크스 형제 영화를 기반으로 한 도시의 전설인지 인생이 예술을 모방하는지는 모르겠습니다. Lucas Perry : Steven, 정말 고맙고 이원론과 지능에 대한 요점을 좋아했습니다. 나는 그것이 자기 자신의 정체성과 관련하여 정말로 흥미로운 방향을 지적한다고 생각합니다. 우리는 여기에 들어갈 시간이 없습니다. 그러나 나는 그것을 이해했다. 그래서 앞으로 나아가면서, 인공 지능이 인간의 마음과 같은 방식으로 지능을 달성하는 것으로 어느 정도까지 보십니까? 어떤 종류의 유사점이나 차이점이 있습니까? 스튜어트 러셀 : 이것은 정말 흥미로운 질문이며 우리는 이것에 관해 이야기하는 데 2 ​​시간을 소비할 수 있습니다. 인공 지능을 통해 저는 딥 러닝이 아니라 AI 연구원들이 수년에 걸쳐 개발 한 모든 기술을 의미한다고 생각합니다. 따라서 논리적 추론과 같은 일부는 아리스토텔레스와 인간의 사고를 모형화 하는 공식적인 논리를 개발 한 다른 그리스 철학자들로 되돌아가면서 개발되었습니다. 따라서 논리적 추론을 수행하는 프로그램을 구축할 때 어떤 의미에서 인간 추론 기능의 한 측면을 포착한다는 것은 놀라운 일이 아닙니다. 그런 다음 80년대에 제가 언급했듯이 AI는 불확실성 하에서 추론을 발전시켰으며 나중에는 특히 유대 진주의 연구에서 인과성 개념으로 이를 추론했습니다. 인공 지능과 인지 과학이 아마도 60년대에 분리되었기 때문에 차이점이 있습니다. AI를 하고 있는 지인지 과학을 하고 있는지에 대한 명확한 구분은 없었습니다. 그러나 사람들은 곧 이렇게 말했습니다. “이것은 실제로 과학적이지 않습니다. 인간의 마음이 어떻게 행동하는지에 대해 주장하고 싶다면, 인간을 대상으로 한 실제 심리 실험에 근거해야 합니다.” 이는 AI의 공학 목표와는 다릅니다.