AI는 어떻게 성장하고 발전하는가
AI는 어떻게 성장하고 발전하는가
따라서 GE 무어가 순진한 바보라고 비난하는 사람은 아무도 없습니다. 그는 훌륭한 도덕적 결정이 무엇인지에 대한 즐거움 극대화 정의에 반대했기 때문입니다. 그는 중요한 철학적 요점을 만들고 있었으며 AI 시스템의 목표 설계와 관련하여 동일한 요점을 무시해서는 안 된다고 생각합니다. Steven Pinker : 그렇습니다. 이는 인간의 행복을 극대화한다는 단일 목표, 즉 귀하의 모범을 보여주는 보편적으로 강력한 AI 시스템을 구축하는 것에 대한 훌륭한 주장입니다. AI 연구자들이 그 터무니없는 프로젝트에 대해 경고해야합니까? 나에게 보인다. 그건 빨대 남자, 그래서 실험에서 무의식적인 기니피그로 전체 인간의 경쟁을 걱정으로 설계되어 다른 시나리오입니다. 우리가 가능한 위험을 설명하기 위해 아래에 갈 수없는 엡실론이 없더라도 엡실론 내에 있다는 것은 충격이 아닙니다. 이것들은 인간의 상상력의 연습으로 더 많이 칩니다. 하나의 목표가 주어진 엄청나게 간단한 시스템을 가정하면 무엇이 잘못 될 수 있습니까? 글쎄, 문제는 잘못 될 수 있지만 실제로 구현 될 희망이 있는 실제 AI 시스템과 관련하여 우리에게 직면하게 될 것은 무엇입니까? 당연히 모든 것을 제어하기 전에 모든 시스템에서 살아있는 일광을 테스트해야합니다. 그것이 넘어지지 않는 교량 건설과 공학의 표준 안전 윤리에 관한 Stuart의 요점입니다. 그러나 인간 행복을 극대화한다는 목표를 제공하는 것과 같이 인공 지능 시스템에 대한 믿을 수 없을 정도로 멍청한 아이디어를 기반으로 한 이국적인 시나리오가 안전한 인공 지능을 제공하는 경로라고 확신하지 않습니다. 스튜어트 러셀 : 알겠습니다. 하나의 목표와 여러 목표가 빨간색 청어라고 다시 한 번 말씀 드리겠습니다. 목표를 정확하게 지정하는 것이 너무 쉽다고 생각되면 다음 논문에서 이를 적을 것입니다. 그럼 우리는 이렇게 말할 것입니다. “괜찮아. 이것이 초 지능형 AI 시스템의 목표가 무엇인지에 대한 Steve Pinker의 제안입니다.” 그리고 그런 일을 좋아하는 사람들, 아마도 Nick Bostrom과 다른 사람들은 실패의 길을 찾을 것입니다. 따라서 인간이나 인류가 결합한 것보다 훨씬 강력한 것을 배포하기 전에 테스트 할 수 있다는 생각은 매우 낙관적입니다. 지금은 일반 소프트웨어 시스템을 테스트 할 수 없습니다. 따라서 테스트 생성은 소프트웨어 엔지니어링에 사용되는 효과적인 방법 중 하나이지만 곱셈을 포함하여 실제 사례에 대해 알려진 많은 실패 사례가 있습니다. 인텔의 수십억 개의 곱셈 예제로 테스트되었지만 곱셈 회로의 버그를 발견하지 못해 일부 경우 잘못된 결과를 생성했습니다. 그리고 우리는 공식 검증 기술을 가지고 있는데, 그 오류를 발견하지 못했을 것입니다. 그러나 특히 미국에서는 소프트웨어 설계에 공식 검증을 사용하는 것과는 다소 반대되는 문화가 있습니다. 오늘날 펜티엄 오류로 인해 하드웨어 설계에서는 그다지 많지 않지만 여전히 소프트웨어에서는 공식 검증이 매우 어렵고 유럽인이며 우리가하는 일은 아닙니다. 소프트웨어 검증은 일반적으로 내부적 인 의미에서 소프트웨어의 정확성에 대해서만 생각하기 때문에 입력과 출력 사이의 알고리즘 내부에서 발생하는 일이 일부 사양을 충족한다는 점보다 훨씬 어렵습니다. 여기서 원하는 것은 알고리즘과 세계의 조합이 우리가 기뻐할만한 방식으로 진화한다는 것입니다. 그리고 그것은 훨씬 더 어려운 일입니다. 제어 이론은 검증의 의미에 대한 견해를 가지고 있습니다. 또한 매우 간단한 선형 2 차 조정기와 몇 가지 다른 예를 수행 할 수 있습니다. 그리고 그 이상으로, 그들은 붙어 있습니다. 그리고 실제로 테스트는 아마도 불가능하지는 않다고 생각합니다. 내 말은, 우리가 그렇게하지 말아야한다는 말은 아니지만 테스트를 통해 어떤 종류의 신뢰도를 얻는 것은 매우 어려울 것입니다. 세계는 목표를 가져옵니다. 그러나 복잡하지만 목표가 다각적이라면 아마도 잘못된 것일 수 있습니다. 그래서 나는 완전히 다른 것이 아니라 실제 목표가 무엇인지 모르는 일반화 된 AI 형태를 제안했습니다. 그것은 인간이 어떻게 가능한 미래의 순위를 결정하는지와 그것이 행동 방식을 바꾸는 것을 알지 못하지만 실패 모드도 가지고 있다는 것을 알고 있습니다. 그중 하나는 미래에 대한 인간 선호도 순위의 가소성이며 AI 시스템이 해당 가소성을 활용하지 못하게 하는 방법은 무엇입니까? 그것이 무엇이든 인간의 취향에 영향을 미치기 때문에 완전히 예방할 수는 없습니다. 그러나 문제는 인간의 선호도를 합리적으로 수정하는 것과 무엇이 합리적이지 않은가? 우리는 그것에 대한 답을 모른다. 따라서 성공 가능성을 제안하는 연구 의제에 대해 극복해야 할 수많은 어려운 연구 문제가 많이 있습니다. 나는 이것이 해결하기 쉽고 쉬운 문제라는 낙관적이지 않으며, AI가 지난 70 년 동안 일했던 개념적 틀을 벗어나야 만 해결할 수 있다고 생각합니다. 스티븐 핑커 : 네. AI의 개념적 프레임 워크가 가능한 미래에 대한 순위와 같은 일반적인 목표의 단일 또는 소규모 목록을 최적화하고 있다면 특정 문제를 해결하는 도구를 구축하는 대신 어떤 수단으로든 목표를 추구 할 수 있습니다. 그러나 초 지능의 환상이 나오지 않을 것 같은 이유, 즉 우리를 능가하고 자신의 지능을 강화하고 그것을 통제하려는 우리의 모든 시도를 물리 치기위한 기적의 힘이 나오지 않을 이유에 대해서도 논쟁했습니다.