Notice
Recent Posts
Recent Comments
Link
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
Tags
more
Archives
Today
Total
관리 메뉴

세상의 모든 상식

인공 지능의 이점 및 위험 1 본문

카테고리 없음

인공 지능의 이점 및 위험 1

두루미. 2020. 7. 10. 00:44

인공 지능의 이점 및 위험

“ 문명에 대해 우리가 좋아하는 모든 것은 지능의 산물이므로 인공 지능으로 인간의 지능을 증폭 시키면 기술을 유익하게 유지하는 한 결코 전례없이 문명이 번성 할 수 있습니다. "AI 란? SIRI에서 자율 주행 자동차에 이르기까지 인공 지능이 빠르게 발전하고 있습니다. 공상 과학은 종종 AI를 인간과 같은 특성을 가진 로봇으로 묘사하지만 AI는 Google의 검색 알고리즘에서 IBM의 Watson, 자율 무기에 이르기까지 모든 것을 포함 할 수 있습니다. 오늘날 인공 지능은 좁은 AI로 잘 알려져 있습니다. 좁은 인공 지능만 수행하도록 설계되었습니다. 그러나 많은 연구자들의 장기 목표는 일반 AI를 만드는 것 입니다. 좁은 AI는 체스 나 방정식 풀기와 같이 특정 작업이 무엇이든 인간보다 성능이 뛰어나지 만 AGI는 거의 모든 인지작업에서 인간보다 성능이 뛰어납니다. AI 안전을 연구해야하는 이유 단기적으로 AI가 사회에 유익한 영향을 미치게 한다는 목표는 경제 및 법률에서 검증, 타당성, 보안 및 통제와 같은 기술 주제에 이르기까지 많은 분야에서 연구에 동기를 부여합니다. 랩톱이 충돌하거나 해킹 당하면 사소한 방해가 될 수 있지만 AI 시스템이 자동차, 비행기, 맥박 조정기, 자동 거래를 제어하는 ​​경우 원하는 대로 행동하는 것이 더욱 중요합니다. 시스템 또는 전력망, 또 다른 단기적인 도전은 치명적인 자치 무기에서 치명적인 무기 경쟁을 막는 것입니다. 장기적으로, 중요한 질문은 강력한 AI에 대한 탐구가 성공하고 AI가 모든 인지과제에서 인간보다 나아질 경우 어떻게 될 것 인가입니다. 1965년 Good이 지적한 것처럼 똑똑한 AI 시스템 설계는 그 자체로 인지적인 작업입니다. 그러한 시스템은 재귀적인 자기 개선을 겪을 수 있으며, 지능이 폭발하여 인간의 지능이 훨씬 뒤 떨어질 수 있습니다. 혁신적인 신기술을 발명함으로써 그러한 초 지능 은 우리가 전쟁, 질병 및 빈곤을 근절하는 데 도움이 될 수 있으므로 강력한 AI를 만드는 것이 인류 역사상 가장 큰 사건이 될 수 있습니다. 하지만 일부 전문가들은 인공 지능이 AI가되기 전에 인공 지능의 목표를 조정하는 법을 배우지 않는 한 그것이 마지막일지도 모른다는 우려를 표명했습니다. 강력한 AI가 달성 될지에 대해 의문을 제기하는 사람들이 있으며, 초 지능형 AI의 생성이 유익하다고 보장하는 사람들도 있습니다. FLI에서는 이러한 두 가지 가능성을 모두 인식하지만 의도적으로 또는 실수로 인공 지능 시스템이 큰 피해를 입힐 수 있는 가능성을 인식합니다. 우리는 오늘의 연구가 미래에 그러한 잠재적 부정적 결과를 더 잘 준비하고 예방할 수 있도록 함으로써 함정을 피하면서 AI의 이점을 누릴 수 있다고 믿습니다. AI는 어떻게 위험 할 수 있습니까? 대부분의 연구자들은 초 지능형 AI가 사랑이나 증오와 같은 인간의 감정을 나타내지 않을 것이며 AI가 의도적으로 자비롭거나 악의가 될 것이라고 기대할 이유가 없다는 데 동의합니다. 대신 AI가 어떻게 위험에 처할 수 있는지를 고려할 때 전문가들은 두 가지 시나리오를 가장 잘 생각합니다. AI는 파괴적인 일을 하도록 프로그램 되었습니다. 자율 무기는 죽이도록 프로그래밍 된 인공지능 시스템입니다. 잘못된 사람의 손에 이 무기는 쉽게 대량 사상자를 초래할 수 있습니다. 더욱이 AI 무기 경쟁은 실수로 AI 전쟁을 일으켜 대량 사상자를 초래할 수 있습니다. 이 무기들은 적에 의해 방해받지 않기 위해 단순히 "끄기"가 매우 어려워지므로 인간은 그러한 상황에 대한 통제력을 잃을 수 있습니다. 이 위험은 AI가 좁더라도 존재하지만 AI 지능과 자율성이 높아짐에 따라 증가합니다. AI는 유익한 일을 하도록 프로그램 되었지만 목표를 달성하기위한 파괴적인 방법을 개발합니다. 이는 AI의 목표를 우리의 목표와 완전히 일치시키지 못하면 발생할 수 있습니다. 순종적인 지능형 자동차에 최대한 빨리 공항으로 데려다달라고 요청하면 헬리콥터가 쫓아가 구토로 덮여 원하는 대로 하지 않고 문자 그대로 원하는 대로 할 수 있습니다. 야심찬 지리공학 프로젝트로 초 지능 시스템이 임무를 수행하는 경우, 생태계로 인해 부작용이 생길 수 있으며 인간이 시도를 방해하는 위협으로 막으려는 인간의 시도를 볼 수 있습니다. 이러한 예에서 알 수 있듯이 고급 AI에 대한 우려는 악의적 인 것이 아니라 역량입니다. 초 지능형 AI는 목표 달성에 매우 능숙할 것이며, 그러한 목표가 우리 목표와 맞지 않으면 문제가 있습니다. 당신은 아마도 악의에서 개미를 밟는 사악한 개미 싫어하는 사람이 아니지만 수력 녹색 에너지 프로젝트를 담당하고 개미집에 범람 할 개미집이 있다면 지역에 개미집이 있습니다. AI 안전 연구의 주요 목표는 인류를 그 개미의 위치에 두지 않는 것입니다. AI 안전에 대한 최근 관심사 Stephen Hawking 및 과학 및 기술 분야의 다른 많은 유명인은 최근 언론 과 AI에 의한 위험에 관한 공개서한을 통해 많은 주요 AI 연구자들 과 함께 우려를 표명 했습니다. 왜 제목이 갑자기 제목에 표시됩니까? 강력한 AI를 추구하는 것이 궁극적으로 성공할 것이라는 아이디어는 오랫동안 공상 과학, 수세기 또는 그 이상으로 생각되었습니다. 그러나 최근의 돌파구 덕분에 전문가들이 불과 5년 전만해도 수십 년 전으로 여겨지는 많은 AI 이정표에 도달하여 많은 전문가들이 우리의 인생에서 초 지능의 가능성을 심각하게 받아들입니다.

Comments