IT/AI news&info

AI의 위험성과 오픈AI의 역할

soures 2024. 12. 28. 17:17
728x90
반응형
이 영상은 AI의 발전과 그로 인한 윤리적 문제에 대한 심도 있는 논의를 담고 있습니다. AI의 자연스러운 자기 개선, 자기 학습, 자기 복제과정이 시작되면서 이러한 시스템들이 인간의 통제를 벗어날 위험성이 증가하고 있음을 강조합니다. 특히, 샘 알트만의 오픈AI와 그로 인해 벌어진 내부적 갈등을 통해, AI 개발이 어떻게 기업의 이익에 좌우될 수 있는지를 보여줍니다. AI의 미래와 그에 따른 윤리적 규제가 얼마나 중요한지를 깨닫게 해주는 영상입니다. 따라서, AI 리터러시와 합리적인 규제가 필요하다는 메시지가 강하게 전달됩니다.

1. 🤖 AI의 자기 개선과 오픈AI의 윤리적 문제 [00:00:00] (1분)

  • AI는 자기 개선, 자기 복제, 자기 학습의 능력을 통해 인간의 통제를 벗어날 수 있다.
  • 오픈AI는 원래 인간 초능력을 넘어서는 AGI(초인공지능)를 안전하게 개발하기 위해 설립된 비영리 재단이다.
  • AGI는 하나의 기업이 소유하지 않도록 해야 하며, 이익을 위해 감추어지지 않도록 투명성을 강조한다.
  • 오픈AI는 개발 과정에서 자금이 필요해 비영리 재단 외에도 회사로 운영되며, 초기 약속에 따라 AI 안전에 20%의 자원을 투자하겠다고 했다.
  • 세계 최고의 AI 과학자들이 오픈AI에 모여 있으며, AI 안전연구에 중점을 두고 있다.
반응형

1. AI의 자기 개선과 통제의 위험성 [00:00:00]

  • AI는 자기 개선, 자기 복제, 자기 학습이 가능해지는 순간 인간의 통제를 벗어날 수 있다 .
  • 현재 AI는 이미 이 세 가지 기능을 수행하고 있으며, 이는 중요한 이슈로 부각되고 있다 .

2. 오픈AI와 AGI의 위험성 [00:00:16]

  • 오픈AI는 AI의 위험성을 인식하여 비영리 재단으로 시작하였다 .
  • AGI(초인공지능)는 하나의 기업이 소유해서는 안 되며, 이를 통한 제재와 멈춤이 가능해야 한다 .
  • 미국의 징벌적 배상제도는 근본적인 제재 장치로 작용할 수 있지만, 기업들이 위험성을 숨기려는 동기를 제공할 수도 있다 .

3. 투명성과 AI 안전 투자 [00:01:11]

  • 오픈AI는 투명한 개발을 통해 인류를 위해 AI를 발전시키겠다는 원칙을 세웠다 .
  • 회사는 개발 자금을 위해 펀딩을 받으며, 초기에는 전체 자원의 20%를 AI 안전 연구에 투자하겠다고 약속했다 .
  • 다양한 세계 최고 AI 과학자들이 모여 AI의 안전을 위한 연구에 적극 참여하고 있다 .

2. 🤖 오픈AI의 불투명한 운영과 안전 문제 [00:01:49] (3분)

  • 샘 알트먼의 지속적인 이상 행동으로 인해 오픈AI의 운영이 점점 불투명해지고, 안전 문제가 대두되었다.
  • 개발자들이 안전과 관련된 약속이 결국 폐기되었다고 주장하며, 특정 직원の 주식에 대한 위협이 드러났다.
  • 오픈AI의 개발자들이 익명으로 불만을 토로하며 문제 상황이 외부로 알려졌고, 결국 샘 알트먼은 사과 성명을 발표했다.
  • 오픈AI의 개발 역량이 20%에서 30% 이상 감소했으며, 윤리팀이 해체되는 결정도 알트먼의 주도 아래 이루어진 것으로 추정된다.
  • 알트먼이 사업가적 관점에서 운영하고 있으며, 이로 인해 유능한 개발자들이 이탈하고 있다는 비판이 제기되었다.

 

1. 내부 갈등과 투명성 문제 [00:01:49]

  • 샘 알트먼의 이상한 행동으로 인해 오픈AI 내에서 갈등과 투명성 문제가 발생하기 시작했다는 언급이 있다 .
  • 안전 팀이 출근했을 때 자리가 없는 등, 협력이 어려운 상황이 반복되고 있다 .
  • 양심적인 개발자가 퇴직 후 불합리한 계약 조항을 폭로하면서, 오픈AI 내의 갈등이 공개되었다 .
  • 샘 알트만은 주식 관련 조항에 대해 사과하며 자신의 책임을 인정하지 않는 듯한 태도를 보였다 .

2. 윤리적 문제와 AI 개발의 의사 결정 [00:03:46]

  • 마이크로소프트의 AI 윤리 팀 해고 소식 뒤에는 알트만의 결정이 있을 수 있다는 추측이 제기된다 .
  • 검증되지 않은 AI 서비스를 급하게 출시하여, 이후 사회적 논란과 안전 문제를 유발한 사례가 있다 .
  • 윤리 팀의 지속적인 반대에도 불구하고, 이윤을 추구하는 결정이 이루어졌다는 평가가 있다 .
  • SHM 알트만의 의사 결정이 상업적 이익을 중시하는 방향으로 기울어져 있다는 의견이 제시된다 .

3. 🧠 AI 발전의 현황과 AGI의 미래 [00:05:19] (12분)

  • AI 발전은 고원 지역에 도달했으며, 그러나 이 상태에서 성장 속도가 지체되고 있는 단계이다. 또한, 엔트로피는 여전히 발전하고 있다고 주장된다.
  • 고품질 학습 데이터가 AI 모델 발전에 중요하다는 의견이 있다. 이에 따라, 모델의 규모 증가와 고품질 데이터의 결합이 필수적이라고 한다.
  • GPT-5의 출시에 대한 기대가 있지만, 현재로서는 발전이 더디고, 많은 사람들이 이를 위해 필요한 조건을 충족할 수 있을지 의구심을 내비친다.
  • AI 시스템이 효율적으로 작동하기 위해서는 대규모의 컴퓨팅 파워가 필요하며, 이는 상당한 엔지니어링 도전 과제를 동반한다. 예를 들어, 최신 GPU가 필수적이며, 이를 동시에 운영하기 위한 기술적 난이도는 매우 높다고 지적된다.
  • AGI(인공지능 일반지능)의 도래 시점에 대한 다양한 예측이 있으며, 대체로 2026년에서 2029년 사이에 가능할 것이라는 입장이 지배적이다. 단, AGI에 대한 정의가 모호하기 때문에 그 도달 시 영향력에 대한 논쟁이 계속되고 있다.
3.1. AI 개발의 현재 상황과 미래 전망

00:05:19 (1분)

  • 최근 AI 개발에 대한 여러 전망이 제기되고 있지만, 여전히 진행 중이라는 의견이 우세하다.
  • 일리아스 커버는 규모의 법칙이 유효하다고 언급하며, 고품질 학습 데이터의 중요성이 더욱 부각되고 있다고 주장한다.
  • AI 발전이 지체되고 있고, 허들이 높아진 상황에서, GPT 5의 출현이 이러한 정체를 극복하는 열쇠로 지목되고 있다.
  • 현재 챗GPT는 여전히 시장 1위를 유지하고 있지만, 클로드는 24%의 시장 점유율을 올리며 크게 성장하고 있다.

3.1.1. AI 개발의 현재 상태와 논쟁 [00:05:19]

  • AI 개발은 고원에 도달했다는 의견과 계속 발전 중이라는 상반된 주장이 존재한다는 전망이 제기되고 있다.
  • 일리아스 커버에 따르면 규모의 법칙은 여전히 유효하나, 올바른 것을 규모를 키우는 것이 중요하다고 한다.
  • 커버가 언급한 '올바른 것'은 고품질 학습 데이터로 추정된다. 그래서 단순한 규모 확장이 아니라 질 높은 데이터를 활용해야 한다고 강조한다.

3.1.2. AI 모델 개발과 발전의 한계 [00:06:15]

  • 고원의 상태를 극복하려면 GPT 5가 필요한 상황이라고 주장된다.
  • 챗GPT와 GPT 4는 이미 발전을 이루었으나, 뛰어난 개선을 위해서는 더 강력한 모델이 요구된다고 한다.
  • AI 기술의 향후 발전 가능성에 대해 의견이 갈려 있으며, 일부는 현재의 기술적 한계를 지적하고 있다.

3.1.3. 시장 점유와 경쟁 상황 [00:06:49]

  • 엔트로피 클로드는 시장 점유율을 확대해 가고 있으며 기업 시장에서 GPT가 많이 점유율을 뺏기고 있다고 한다.
  • 현재 GPT가 여전히 1등이지만, 클로드가 24%의 점유율을 올리며 강력한 경쟁자가 되었다.
3.2. AI의 발전과 엔지니어링의 어려움

00:06:55 (3분)

  • AI는 수석급 과학자의 움직임에 따라 발전 속도가 변화하며, 이들이 이동하면 판도에 큰 영향을 미친다.
  • 대량 데이터 처리와 계산은 복잡하며, 어마어마한 엔지니어링이 필요하여 중단 없이 운영하기 어렵다는 점이 강조된다.
  • AI 전문 회사조차도 고급 GPU의 대량 운영에 어려움을 겪으며, 서로 다른 GPU 버전이 놀라운 계산 능력을 보여준다는 점이 언급된다.
  • 네이버의 경우, 과거의 대량 분산 처리 경험 덕분에 거대 AI를 간신히 따라가는 상황임을 알 수 있다.
  • AGI 개발에 있어 현재 하드웨어로도 가능하다는 주장이 있으며, 이는 충분한 GPU 수량이 뒷받침되어야 한다는 것으로 추정된다.

3.2.1. AI 발전과 인력 변화 [00:06:55]

  • AI 기술의 발전 속도가 빠르며, 특히 수석급 인력의 이동이 큰 영향을 미치고 있다 .
  • AI 발전은 대용량 데이터를 효율적으로 처리하는 능력에 따라 좌우되며, 클로드와 같은 AI 도구들을 주요하게 사용하고 있다 .
  • 대용량 데이터를 처리하기 위해서는 고급 엔지니어링 기술이 필요하며, 특히 많은 GPU를 효율적으로 사용하는 것이 중요하다 .

3.2.2. AI의 기술적 도전과 컴퓨팅 능력 [00:07:43]

  • AI 전문 회사들도 H100 GPU를 20장 동시에 작동시키는 데 어려움을 겪는다 .
  • H100과 같은 GPU는 1초에 2경의 계산을 수행할 수 있으며, 이를 효율적으로 사용하는 것은 예술에 가까운 작업이다 .
  • 최고의 엔지니어가 빠져나가면 그 영향을 크게 받으며, 그로 인해 AI 기술 경쟁이 더욱 치열해지고 있다 .

3.2.3. 대용량 데이터 처리 경험과 AI의 발전 [00:08:37]

  • 네이버의 사례에서 볼 수 있듯이, 대용량 분산 처리 경험이 AI 개발에 큰 도움이 된다 .
  • 특히, 네이버는 검색 등을 통해 많은 데이터를 인덱싱하고 처리해온 경험이 있다 .
  • 이러한 경험이 AI의 성장과 대규모 AI 모델 개발을 가능하게 만든다 .

3.2.4. AI 개발자와 윤리적 문제 [00:09:15]

  • 세계 최고급 수석 과학자들이 AI 발전에 중요한 역할을 하지만, 그들이 나가면 조직에 큰 타격이 된다 .
  • AI의 급속한 발전이 일정 부분 개발자들의 욕심에 의해 좌우되기도 한다 .
  • 샘 알트만과 같은 인물들의 전략적 판단이 AI의 미래에 중요한 영향을 미친다 .

3.2.5. 미래 AI 기술과 하드웨어 논의 [00:09:49]

  • 샘 알트만은 현재의 하드웨어로 AGI(범용 인공지능) 개발이 가능하다고 주장한다 .
  • H100과 H200 GPU를 다수 사용함으로써 대규모 데이터 처리가 가능하며, 블랙이 더 효율적이지만 필수적이지는 않다고 본다 .
3.3. AGI 시대와 정의의 모호성

00:10:41 (4분)

  • AGI(인공 일반 지능)는 전문가들에 따라 2026년부터 2029년 사이에 등장할 것으로 예측되고 있다.
  • AGI의 정의에 대한 합의가 부족하며, 특히 '지능'과 '의식'에 대한 명확한 정의가 부재하다.
  • '강 인공지능'에서 '인공지능 일반지능'으로의 용어 변경은, 지능을 측정 가능한 형태로 바꾸는 계기가 되었던 것으로 추정된다.
  • 정의의 모호성 때문에 AGI가 도달했을 때의 사회적 영향에 대한 의견이 상반되며 이에 대한 논의가 활발하다.
  • 오픈AI의 향후 발전 방향에 대한 의문이 있으며, GPT-5와 같은 특정 모델의 기능적 한계를 지적하고 있다.

3.3.1. 예상 AGI 도래 시기 [00:10:41]

  • 다양한 과학자들이 AGI 도래 시기를 예측하는데, 가장 멀리 보는 사람은 2029년이라고 본다 .
  • 샘 알트만은 2026년, 일론 머스크는 원래 2020년으로 예측했으나 조금 더 늦췄다 .
  • 제프 린턴 교수는 2029년으로 예상하여 가장 신뢰할 만한 것으로 여겨진다 .

3.3.2. '강 인공지능'과 '인공지능 일반지능'의 정의와 변화 [00:11:16]

  • '강 인공지능'은 인간 지능을 넘어서는 AI로 정의됐지만 최근에는 '인공지능 일반지능'이란 용어로 바뀌었다 .
  • 현재 지능이나 의식에 대한 합의된 정의가 없기 때문에, 측정 가능한 것으로 바뀌며 '인공지능 일반지능'의 사용이 결정되었다 .
  • '인공지능 일반지능'이라는 개념의 모호함으로 인해 AGI에 도달했을 때 세상에 대한 예측이 다양하게 나타난다 .

3.3.3. AI 개발 방식의 딜레마와 GPT의 발전 [00:13:20]

  • '오픈 AI 원'의 개발은 'GPT' 시리즈를 진행하는 방식에 영향을 미쳤으며, 'GPT-5'는 현재 계획이 없다 .
  • 강화 학습의 한계로 인해 'GPT' 계열의 통합 방법을 찾지 못했다고 평가된다 .
  • AI의 미래 방향성에 대해 서로 다른 주장을 가진 그룹들이 존재한다 .
3.4. AI 학습 방식과 월드 모델의 중요성

00:14:49 (2분)

  • 현재 AI는 간접 체험을 통해 학습하고 있으며, 이는 AI가 월드 모델을 형성하는 데 한계를 가진다.
  • AI는 직접적인 체험 없이 상식을 가질 수 없으며, 이는 AI 발전에 큰 장애물로 작용한다.
  • 유명한 AI 전문가들이 네스 AI와 같은 새로운 AI 모델을 제안하며, 이를 통해 AI의 연구가 활발히 진행되고 있음을 보여준다.
  • 로봇들이 클라우드로 연결되어 경험을 공유함으로써, 학습 속도가 급격히 증가하고 이는 인간과 로봇의 간의 경쟁에서 우위를 점할 수 있는 요소가 된다.
  • AI의 발전은 투자와 연구의 증가로 이어지고 있으며, 이는 특히 휴머노이드 로봇 분야에서 두드러진다.

3.4.1. AI 학습 방식 및 한계 [00:14:49]

  • 현재 AI는 간접 체험을 통한 학습 방식에 의존하고 있으며, 이로 인해 월드 모델을 갖추기 어렵다는 주장이 있다 .
  • 월드 모델은 인간의 상식의 기반이 되는 것으로, AI는 절대 상식을 가질 수 없다는 주장이 있다 .
  • 노콘(Nocon)은 AI가 몸을 통해 직접 체험해야 한다고 주장하고 있다 .

3.4.2. AI 투자와 기술 발전 [00:15:37]

  • 최근 AI 기술 발전에 따라 과학자들의 가치 평가가 급등하고 있고, 페페리 교수의 발표 이후 회사의 가치가 큰 금액으로 인정받았다 .
  • 휴머노이드의 발전이 활발하게 이루어지고 있으며, 일론 머스크가 테슬라의 오토봇 픽시 발표 이후 휴머노이드 관련 투자가 집중되고 있다 .

3.4.3. 휴머노이드와 로봇 네트워크의 잠재력 [00:16:27]

  • 모든 로봇이 클라우드로 연결되어 있어 하나의 뇌처럼 경험을 공유하며 막대한 학습 잠재력을 가진다 .
  • 이러한 네트워크 시스템을 통해 로봇들은 빠른 학습 속도를 자랑하며 인간과 로봇의 대결에서 뛰어난 성능을 보일 수 있다 .
3.5. ️ 생물적 지능과 디지털 지능의 공존

00:17:10 (13초)

  • 제프 린턴 교수는 생물적 지능 디지털 지능이라는 두 가지 지능이 존재하며, 이들 지능은 자기가 배운 모든 것을 공유한다고 주장한다.
  • 따라서 이러한 지능의 발전 속도를 인간이 따라갈 방법이 없다고 언급한다.
  • 결국, 새로운 지능의 탄생을 인정해야 한다고 강조한다.

3.5.1. 생물적 지능과 디지털 지능 [00:17:10]

  • 제프 린턴 교수는 생물적 지능 디지털 지능이라는 두 가지 형태의 지능이 존재하게 되었다고 설명한다 .
  • 이 두 지능은 서로 모든 배운 것을 공유한다고 주장한다 .
  • 이러한 상황에서 인간은 그 속도를 따라갈 수 없는 문제가 발생한다고 지적한다 .
  • 따라서, 우리는 완전히 다른 새로운 지능이 탄생했음을 인정해야 한다고 강조한다 .

4. 🚨 AI의 통제와 윤리적 위험성 [00:17:27] (6분)

  • AI가 인간의 통제를 벗어나는 순간은 자기 개선, 자기 복제, 자기 학습이 가능해지는 시점이다.
  • 현재 AI는 코드 작성을 포함한 다양한 작업에서 재귀적인 흐름을 시작한 상태이다.
  • AI에 대한 결정권은 소수의 슈퍼 엘리트들에 의해 좌우되고 있으며, 이들이 인류의 미래를 결정하는 것은 위험하다.
  • 윤리적 기준에 대해 명확한 답변 없이 "우리를 믿어 달라"는 주장은 신뢰를 떨어뜨리고, 개인의 신념이 AI 개발에 영향을 줄 수 있다.
  • AI 규제와 관련하여 국제적인 합의가 반드시 필요하나, AI 회사들이 실제 규제에는 로비를 통해 반대하는 경향이 있다.

 

1. AI의 자기 개선과 통제의 위험성 [00:17:27]

  • AI 시스템은 자기 개선, 자기 복제, 자기 학습 과정에서 인간의 통제를 벗어날 수 있다고 연구자들은 말한다.
  • AI는 이미 컴퓨터 코딩과 스마트 팩토리, 물류 로봇 등 다양한 생산 라인에 도입되고 있어 재귀적인 자기 개선 흐름을 시작했다.
  • 소수의 엘리트들이 AI 관련 결정을 좌지우지하며, 이들이 인류의 미래를 결정짓고 있는 상황이다.

2. AI 윤리와 규제의 필요성 [00:18:08]

  • 일부 기업들은 AI를 윤리적으로 개발하고 있다 말하면서도, 그 윤리의 구체적인 내용을 묻는 질문에는 명확히 답하지 않는다.
  • AI에 대한 국제적인 윤리 규제의 필요성이 제기되지만, 실제 규제가 나오면 기업들은 로비를 통해 이를 반대한다.

3. 규제에 대한 기업의 두 얼굴 [00:19:34]

  • 캘리포니아에서 제안된 초거대 AI 규제 법안은 과학자 대부분과 관련이 없으나, 초거대 AI 회사들의 로비로 최종적으로 거부되었다.
  • 초거대 IT 회사들의 로비력이 점점 강화되고 있으며, 이는 총기 협회보다도 막강해지고 있음을 보여준다.

4. 소수 엘리트의 힘과 AI의 사회적 영향 [00:20:18]

  • 피터 틸과 같은 소수 엘리트들은 정부보다 IT 기업이 세상을 더 잘 운영할 수 있다고 믿고 있으며, AI와 디지털화를 통해 정부의 영향력을 줄이려 한다.
  • AI의 발전은 새로운 미디어와 같이 세계를 바꿀 수 있는 잠재력을 가지고 있지만, 소수 엘리트들이 이를 통제함으로써 위험을 초래할 수 있다.

5. AI와 가속주의 [00:21:53]

  • 가속주의는 기술이 모든 문제를 해결할 것이라는 믿음을 기반으로 하며, 기술에 대한 규제를 악으로 간주한다.
  • 피터 틸 등 가속주의 신봉자들은 AI의 발전을 통해 정부의 규제를 없애고 세계를 바꿀 수 있다고 믿는다.
728x90

5. ⚖️ AI 리터러시와 규제의 중요성 [00:23:29] (3분)

  • AI 리터러시는 사람들이 AI에 대해 이해하고 토론을 할 수 있도록 도와야 하며, 이를 위해 교육과 캠페인이 필요하다.
  • 합리적인 규제가 필수적이며, 이는 AI가 인간을 해치지 않을 것이라는 확고한 믿음을 줄 수 있도록 설계되어야 한다.
  • 신호등과 횡단보도와 같은 제도적 장치가 필요하며, 없이는 AI 산업이 발전하는 데 큰 저해가 될 것이다.
  • AI의 발전을 위해서는 인류가 공동으로 합의하고 규제를 통해 견제해야 하며, 엘리트가 미래를 독단적으로 결정해서는 안 된다.
  • AI에 대한 경계와 함께 이를 공부해야 하며, 이러한 태도가 인류 전체에 도움이 될 수 있다.

 

1. AI 시대의 주의점과 규제의 필요성 [00:23:29]

  • AI 리터러시를 높이기 위한 교육과 캠페인이 필요하다고 주장한다 .
  • AI와의 공존을 위해 확고한 믿음을 줄 수 있는 규제를 마련해야 한다고 강조한다 .
  • 이러한 규제가 없다면 AI 산업의 발전에 저해가 될 것이라고 경고한다 .
  • 합의와 규제를 통해 인류 전체의 공동 복지를 위해 AI가 기능해야 한다고 주장한다 .

2. AI와 윤리적 문제에 대한 논의 [00:24:38]

  • 영상 내용이 책에 효과적으로 정리되어 있다고 설명한다 .
  • 실리콘 밸리의 슈퍼 엘리트들이 갖고 있는 사상, 예를 들어 효과적 이타주의나 트랜스휴머니즘, 장기주 가속주의 등이 논의되고 있다 .
  • 그러한 사상에 끌려가게 되는 상황을 위험하다고 평가한다 .

3. AI와 군사 산업의 접목 [00:25:24]

  • 피터 틸의 팔란티어를 통해 AI가 국방에 활용되고 있음을 언급한다 .
  • 이러한 회사들이 예전 군산 복합업체들처럼 큰 이익을 얻고 있다고 설명한다 .
  • 드론 산업과의 연계를 통해 팔란티어가 중요한 역할을 하고 있음을 강조한다 .

4. 암흑의 정부와 AI의 영향 [00:26:23]

  • 특정 정부가 존재하며 이로 인해 제 역할을 못 했다는 주장을 검토한다 .
  • 암흑의 정부로 인해 사람들이 어떤 메시지를 보내는지 이해하기 어렵다고 지적한다 .
  • AI를 공부해야 하는 이유와 함께 경계해야 할 필요성을 언급한다 .

 

 

원본영상

https://youtu.be/gtbsl9-rp8A

LIST