메인 사업 Elon Musk, Steve Wozniak, '선출되지 않은 기술 리더'가 너무 많은 권력을 쥐고 있다고 걱정

Elon Musk, Steve Wozniak, '선출되지 않은 기술 리더'가 너무 많은 권력을 쥐고 있다고 걱정

보고있는 영화는 무엇입니까?
 
  녹색 셔츠를 입은 샘 알트만.
OpenAI CEO 샘 알트만. 게티 이미지를 통한 워싱턴 포스트

Elon Musk 및 Apple 공동 창립자를 포함하여 성장하는 기술 리더 및 컴퓨터 과학자 그룹 스티브 워즈니악 , 요구하고 있습니다 OpenAI 및 기타 인공 지능 연구소에서 A.I 교육을 일시 중지합니다. 텍스트 생성기 ChatGPT의 최신 언어 모델인 GPT-4보다 더 발전된 시스템입니다.



에서 공개 서한 제목은 “Pause Giant A.I. Experiments”라는 제목으로 비영리단체인 Future of Life Institute, A.I. 기업은 고급 A.I에 대한 공유 안전 프로토콜 세트를 작성해야 합니다. 인류에게 위험을 초래할 수 있는 더 강력한 소프트웨어를 만들기 전에 개발.








슈퍼맨은 저스티스 리그에있을거야

이 편지에는 Elon Musk, Steve Wozniak, 2020년 대통령 후보 Andrew Yang, 이스라엘 작가 Yuval Noah Harari, 컴퓨터 과학자 Yoshua Bengio 등 영향력 있는 기업가, 학자 및 투자자로부터 1,000명 이상의 서명이 수집되었습니다.



ChatGPT의 성공은 레이스를 촉발 A.I 중에서 크고 작은 기업들이 제작자도 이해하거나 제어할 수 없는 더욱 강력한 시스템을 개발하기 위해 노력하고 있습니다.

“고급 AI는 지구상의 생명 역사에서 심오한 변화를 나타낼 수 있으며 그에 상응하는 보살핌과 자원으로 계획하고 관리해야 합니다. 불행히도 이러한 수준의 계획 및 관리는 이루어지지 않고 있습니다.”라고 편지는 말했습니다.






'우리는 스스로에게 질문해야 합니다. 만족스러운 작업을 포함하여 모든 작업을 자동화해야 합니까?' 계속되었습니다. “결국에는 수보다 많고, 똑똑하고, 구식이 되어 우리를 대체할 비인간적인 마음을 개발해야 할까요? 우리 문명의 통제력을 잃을 위험을 감수해야 합니까? 그러한 결정은 선출되지 않은 기술 리더에게 위임되어서는 안 됩니다.”



범용 A.I에 대한 우려 증가.

일체 포함. 시스템은 일단 시작되면 정확히 어떻게 작동하는지 아무도 모르는 블랙박스 기술로 종종 설명됩니다. ChatGPT와 같은 새로운 소프트웨어가 많은 인간 작업을 수행할 수 있게 되면서 미래의 AI에 대한 두려움이 커지고 있습니다. 시스템이 인간 창조자를 능가하고 등을 돌립니다. ChatGPT의 창시자를 포함하여 많은 업계 리더의 관심사입니다.

무료로 전화번호가 누구의 것인지 어떻게 알 수 있나요

'기계가 인간을 위협한다고 판단하거나 자신의 이익이 우리와 다르다고 결론을 내리거나 단순히 우리에 대한 관심을 멈출 수 있을까요?' 빌게이츠가 쓴 블로그 게시물 지난주. '이러한 질문은 시간이 지남에 따라 더욱 시급해질 것입니다.'

컴퓨터 과학 교수인 제프리 힌튼(Geoffrey Hinton)은 “ A.I. ,”라고 최근 A.I. 대부분의 사람들이 생각하는 것보다 빠르게 진행되고 있습니다. “최근까지만 해도 범용 AI가 나오기까지는 20~50년이 걸릴 것이라고 생각했습니다. 그리고 지금은 20년 또는 그 이하일 수 있다고 생각합니다.” Hinton CBS 뉴스에 말했다 주말 동안.

우리의 무료 데이트 사이트

범용 A.I. 또는 AGI(Artificial General Intelligence)는 A.I를 설명하는 용어입니다. 메모리의 크기나 속도의 제한이 있어도 인간의 두뇌가 할 수 있는 모든 것을 할 수 있는 시스템입니다.

Hinton은 컴퓨터가 궁극적으로 스스로를 개선하기 위한 아이디어를 생성하는 능력을 얻는 것이 가능하다고 믿습니다. 그는 CBS 인터뷰에서 “그게 문제다…

2월 말, OpenAI CEO Sam Altman은 다음과 같은 글을 썼습니다. 블로그 게시물 특히 AGI 문제를 해결합니다. 알트만은 게시물에서 '언젠가는 미래 시스템 훈련을 시작하기 전에 독립적인 검토를 받는 것이 중요할 수 있으며, 새로운 모델을 만드는 데 사용되는 컴퓨팅의 증가율을 제한하는 데 동의하는 가장 진보된 노력을 위해 중요할 수 있다'고 말했다.

Future of Life Institute의 메시지 지지자들은 그 시점이 지금이라고 믿습니다. '일체 포함. 연구자들은 이 시간을 고급 AI를 위한 공유 안전 프로토콜 세트를 개발하는 데 사용해야 합니다. 개발”이라고 공개 서한에서 말했습니다. “이것은 A.I의 일시 중지를 의미하지 않습니다. 일반적으로 개발은 위험한 경쟁에서 새로운 기능을 갖춘 예측할 수 없는 블랙박스 모델로 한 걸음 물러나는 것일 뿐입니다.”

The Future of Life Institute는 매사추세츠주 케임브리지에 기반을 둔 비영리 단체입니다. 고급 AI의 윤리적이고 책임 있는 사용을 장려합니다. 이 조직은 Musk와 A.I. DeepMind의 공동 창립자가 서명한 2018년 서약서 뒤에 있습니다. 전쟁용 로봇 킬러를 절대 개발하지 않겠다고 약속하는 Google 소유의 연구소.

당신이 좋아하는 기사 :