IT/AI news&info

[100분토론] 딥시크 ‘AI 전쟁’‥위기냐 기회냐? (1085회) - 2025년 02월 11일 밤 11시 30분

soures 2025. 2. 14. 08:31
728x90
반응형

딥시크의 출현은 AI 전쟁에서의 새로운 전환점을 시사합니다. 이 토론에서는 딥시크가 기존 AI 모델과 어떻게 다른지, 그리고 그로 인해 AI 산업에서의 기회위기를 어떻게 다루어야 할지에 대한 전문가들의 통찰을 공유합니다. AI 기술이 급격히 발전하며 비용 절감접근성 확대의 가능성을 보여줍니다. 그러나 이 과정에서의 정보 보안문제와 윤리적 우려에 대한 냉철한 논의도 필요합니다. 궁극적으로, 우리는 기술 발전의 흐름 속에서 사회 구조와 인재 양성을 어떻게 변화시킬 것인지 고민해야 합니다.

반응형

1. 🌟 AI 산업의 새로운 패러다임: 딥시크 [00:00:00] (14분)

  • 중국의 인공지능 딥시크가 출시되며, 미국 엔비디아의 시가총액이 846조 원 증발하는 충격이 발생했다.
  • 딥시크는 챗GPT의 1/18 비용으로 비슷한 성능을 내며, AI 생태계를 확장할 혁명적인 기술로 평가된다.
  • 딥시크는 두 가지 모델을 보유하고 있으며, R1 경량 모델은 저렴한 비용과 오픈소스를 통해 주목받았다.
  • 이러한 오픈소스및 가격 경쟁은 AI 모델 비용을 낮추어, 대중시장에서의 AI 서비스확장의 가능성을 시사한다.
  • 딥시크의 출현 이후 AI 시장은 성능 경쟁에서 가격 경쟁으로 전환되고 있으며, 이는 새로운 AI 경제를 활성화할 가능성을 가지고 있다.

1.1. AI 패권 전쟁과 딥 시크의 등장 [00:00:00] (2분)

  • 지난달 27일 미국 주식시장에서 엔비디아의 시가총액 846조 원이 증발하는 사건이 발생했으며, 이는 중국의 인공지능 딥 시크 출시의 충격적인 결과로 추정된다.
  • 딥 시크는 미국의 챗GPT에 비해 1/18도 안 되는 비용으로 비슷한 성능을 만들어내며, 이는 글로벌 AI 생태계에 큰 영향을 미칠 수 있다.
  • 전문가들 사이에서는 딥 시크에 대한 찬사비판이 혼재하며, 혁명적인 변화와 일시적인 흥행이라는 평가가 공존하고 있다.
  • 딥 시크의 등장은 AI 패권 전쟁을 본격적으로 발발시킬 것으로 보이며, 이에 따라 큰 자본과 기술이 투입될 예정이다.
  • 이러한 상황에서, 우리의 AI 기술이 어디에 위치해 있는지 토론할 필요가 있으며, 이는 위기이자 기회로 해석될 수 있다.

1.2. AI 전쟁 관련 토론회 소개 [00:02:20] (1분)

  • 100분 토론은 AI 관련 전문가들이 모여 진행되는 프로그램이다.
  • 이번 토론에 참여하는 전문가들은 카이스트의 김기응 교수, 고려대학교의 김승주 교수, 녹색포럼의 박태웅 의장, 블루닷 AI 연구센터의 강정수 박사 등이다.
  • 시민 패널들이 참여하여 질문을 할 수 있는 시간도 마련되어 있다.
  • 토론은 MBC 홈페이지와 유튜브를 통해 실시간으로 진행된다.

1.3. 딥시크의 특징과 경쟁력 [00:03:44] (2분)

  • 딥시크는 기존 AI들과의 차별점이 있으며, AI 시장의 경쟁 양상을 변화시키고, 무기력함에 빠진 기관이나 국가에도 기회를 제공한다.
  • 딥시크는 두 가지 모델, 즉 V3와 R1을 갖추고 있으며, V3는 거대 언어 모델로 6,710억 개의 매개변수를 가진다.
  • R1 모델은 경량 모델로 비용이 적게 들고, 경쟁적이고 효율적인 엔지니어링 접근법으로 개발되었다.
  • R1의 성공 요인은 오픈소스 방식으로 레시피를 공개하여 다른 개발자들도 활용할 수 있도록 하고, 이는 IT 생태계에 큰 충격을 주었다.
  • 딥시크의 영향은 긍정적이며, 오픈소스개발 방식은 전 세계적인 IT 혁신에 기여하고 있다고 평가된다.

1.4. AI 모델의 성능과 대중화 경쟁 [00:05:58] (4분)

  • AI 모델 훈련 시 체인 오브 쏘트 추론이 사용되며, 추론 과정의 체계적인 훈련을 통해 정확도를 높일 수 있다.
  • 딥시크는 사용자가 원하는 방식에 맞추기 위해 성능을 희생하면서 답변하도록 조정하고 있다.
  • AI 서비스대량 생산 가능성을 보여주는 것처럼, 가격이 저하되면서 대중 시장이 형성될 수 있는 기반이 마련되고 있다.
  • 가격 경쟁이 존재해야 대중 시장이 형성되며, 이는 AI 경제활성화에 영향을 미친다.
  • 오픈AI는 가격인하 및 서비스 접근성을 높이며 경쟁에서 효과를 보이고 있으며, 이러한 가격 경쟁이 스타트업에 긍정적인 영향을 미친다.

1.5. 딥시크의 혁신과 비용 구조 [00:10:11] (3분)

  • 딥시크의 개발에 필요한 비용은 과소평가된 측면이 있으며, 막대한 비용이 들어갔을 것으로 추정된다.
  • 딥시크의 학습 데이터 수집은 14조 개의 토큰을 요구하며, 이 데이터는 정제 비용이 필수적이다.
  • AI 성능은 규모의 법칙에 따라 컴퓨팅 파워와 학습 데이터를 많이 투입할수록 높아지며, 이를 거스르기 힘든 상황이다.
  • GPU는 학습에 비해 서비스 용도로 더 많이 사용되며, 생산하는 기업인 엔비디아의 주가는 이러한 수요 증가로 회복되는 중이다.
  • 중국은 고성능 GPU의 수출 규제 영향으로 사양이 낮은 대중국 수출용 GPU를 사용하게 되어 연산 속도에 제한이 있을 것으로 보인다.

 

2. 🤖 AI 개발의 긍정적 외부 효과와 정보보안 논란 [00:14:21] (13분)

  • AI 성능 향상을 위한 다양한 엔지니어링 트릭이 적용되어 최적화 수준이 매우 높다고 평가받는다.
  • 비용 문제는 주요 고려사항이 아니며, 긍정적 외부 효과가 더 중요하다고 주장된다.
  • AI 모델의 발전과 검증 방식이 변화하고 있으며, 이는 휴먼 피드백을 제거한 효용함수에 기반하여 기업들이 AI를 혁신할 수 있게 한다.
  • 딥시크의 개인정보 수집 논란은 키보드 입력 패턴과 같은 과도한 데이터 수집 문제에서 비롯되며, 이는 보안 우려를 증대시킨다.
  • 서비스와 오픈소스 모델의 구별이 강조되며, 오픈소스는 직접 서버에 설치할 경우 데이터 보안이 확보될 수 있지만, 서비스 이용 시 중국 서버와 연동되어 데이터가 유출될 위험이 존재한다.

2.1. AI 기술의 성능 최적화와 비용 문제 [00:14:21] (50초)

  • 성능을 높이기 위한 다양한 엔지니어링 트릭들이 사용되고 있으며, 이는 인터넷 커뮤니티에서 인상적인 최적화 수준으로 평가받고 있다.
  • 엔지니어들은 이러한 기술적 성과에 대해 박수를 보내고 싶어 한다.
  • 비용 문제에 대해 언급할 때, 이는 미국에서 발생하는 문제로 간주된다.
  • 비용이 중요하지 않다고 주장하며, 이는 친정적인 발언으로 평가될 수 있다.
  • 긍정적 외부 효과에 대해 논의하며, 경제학적으로 전체 인류가 혜택을 받을 수 있는 요소를 살펴봐야 한다.

2.2. AI의 평가 방식의 변화와 기업의 반응 [00:15:11] (2분)

  • 기존의 강화학습에서 휴먼 피드백의 필요성이 있었으나, 최근 AI가 스스로 효용함수를 만들어 휴먼 피드백을 생략할 수 있게 되었다.
  • 이제 많은 기업들이 거대 언어모델을 개발할 때 휴먼 피드백을 제거하고 효용함수를 활용할 수 있게 되었고, 이는 비용 절약의 기회를 제공한다.
  • 기술문서의 공개는 AI의 발전과 휴먼 피드백제거, 또한 증류 기법의 적용 가능성을 보여주었으며, AI가 스스로 학습할 수 있는 방법론을 제시하였다.
  • AI의 생성된 데이터를 사용하여 새로운 AI 모델을 생성할 수 있다는 점이 확인되었고, 이는 진화와 연관이 있다.
  • 전반적으로 AI 개발 비용이 증가했으나, 그들의 기여는 긍정적으로 평가되어야 하며, 한국 사회와 경제에 이를 활용하는 전략적인 접근이 필요하다.

2.3. 딥시크와 정보 보안 논란 [00:18:07] (3분)

  • 딥시크는 개인 정보를 과도하게 수집한다는 비판을 받고 있으며, 특히 키보드 입력 패턴을 수집하는 것에 대한 우려가 크다.
  • 키보드 입력 패턴을 통해 사용자의 행동을 분석하여 개인 식별이 가능해지며, 이를 통해 비밀번호 보안 강화 연구에 활용되기도 했다.
  • 외국 보고서에 따르면, 딥시크의 코드가 로그인 정보를 중국 관영 통신사로 전송하는 기능을 포함하고 있어 정보 보안논란이 심화되고 있다.
  • 정부는 딥시크와 그 모기업인 하이플라이어의 앱 사용을 금지하는 조치를 취하고 있으며, 이는 미국에서의 금지법과 유사한 흐름을 보인다.
  • 2021년 중국의 데이터 보안법이 해당 논란에 더욱 기여하고 있으며, 이 법에 따르면 국가 안전과 관련하여 데이터 수집에 협조해야 하는 규정이 존재한다.

2.4. 딥시크 서비스와 정보보안 문제의 구분 [00:21:20] (2분)

  • 딥시크는 중국 서버에서 호스팅되며, 이에 대한 정보보안 우려가 있으며, 서비스 사용 시 데이터가 중국에 전송될 수 있다.
  • 오픈소스인 딥시크는 다운로드하여 자가 설치하면 보안 문제가 발생하지 않는다고 주장된다.
  • 딥시크를 서비스 형태로 사용하는 것과 오픈소스로 다운로드 받아 사용하는 것 사이에는 명확한 차별화가 필요하다.
  • 정보보안 문제가 발생할 경우, 이는 딥시크의 서비스 문제이지 아마존이나 마이크로소프트 애저 등 다른 플랫폼의 문제가 아니다.
  • 사용자 설치형 서비스는 데이터가 사용자의 서버에 남기 때문에, 중국 서버와의 연결이 끊어지기 때문에 안전하다고 볼 수 있다.

2.5. 한국의 AI 사용 및 윤리 문제 [00:24:11] (3분)

  • 한국 공무원들과 삼성전자가 챗GPT와 다른 AI를 사용하지 않고 있으며, 이는 과잉 반응으로 보인다.
  • 한국 언론은 중국 문제를 부각하고 있지만, 금지령에 대해 선행된 과도한 포장이 존재한다.
  • AI 기업들은 윤리적 책임과 관련하여 활동하고 있지만, 딥식은 그러한 부분이 부족하고, 관련 정보가 결여되어 있다.
  • 유럽연합은 AI 법을 만들고 규제하는 과정에서, 윤리 의식보다 기술 성장의 논의 방향으로 변화하고 있다.
  • AI 기술과 자동차 기술의 발전 속도 차이에 대한 우려가 있으며, 초기 단계부터 윤리적 고려가 필요하다는 지적이 있다.

 

3. ⚖️ AI 기술의 위험성과 안전성 문제 [00:27:58] (12분)

  • 현재 AI 기술의 발전은 초기 단계로, 이에 따른 위험 요소를 사전에 고민해야 한다는 점이 강조된다.
  • AI가 위험한 정보, 예를 들어 생화학 무기 제작법 등을 언급할 경우의 위험성이 특히 우려되며, 이는 사고 가능성을 높일 수 있다.
  • AI의 안전성을 위해서는 보안 전문가의 참여가 필수적이지만, 현재 많은 AI 스타트업들은 이와 같은 인력을 충분히 확보하지 못하고 있다.
  • 오픈소스 기술의 활용이 증가하면서 AI 개발이 용이해졌지만, 이로 인해 안전성에 대한 문제가 발생하고 있어 주의가 필요하다.
  • AI 관련 기술의 경쟁에서 미국과 중국 간의 갈등이 심화될 경우, 이는 특히 엔비디아 같은 기업에 부정적인 영향을 미칠 수 있다는 지적이 있다.

3.1. ️ AI 기술의 현재와 위험성 [00:27:58] (2분)

  • 현재 AI 기술은 초기 단계에 있으며, 이제 막 발전하고 있는 상황이다.
  • AI 서비스의 중단과 책임감 문제는 사업자들이 중요한 고민거리가 될 것이다.
  • 딥시크가 AI 기술 안전성과 위험성을 리뷰한 결과, 기존 경쟁 제품에 비해 위험한 화학무기 제작법에 대한 노출이 부족하다는 지적이 있다.
  • AI가 다루는 주제가 위험성과 윤리적 문제를 포함하고 있어, 산업 초기 기준에 맞는 엄격한 규제가 필요하다.
  • AI 기술이 잘못된 정보를 제공할 경우, 이는 심각한 사회적 위험을 초래할 수 있으므로 보안과 윤리에 대한 전문가의 의견이 중요하다.

3.2. AI 사용의 보안 문제 [00:30:27] (1분)

  • 오픈 소스를 사용한다고 해서 안전하다는 주장은 잘못된 것이다.
  • 마이크로소프트는 Azure 클라우드에서 딥러닝 서비스 제공 시, 해킹팀을 통해 코드 리뷰를 실시하고 부적절한 용어를 필터링하는 시스템을 갖추고 있다.
  • 오픈 소스의 커스터마이징이 안전하게 사용될 수 있는 조건이지만, 이를 잘 수행하기 위해서는 전문가의 도움이 필요하다.
  • 한국의 AI 업체들은 보안 전문가의 인원이 부족하여, 대기업에 비해 보안 문제를 잘 관리하지 못하는 경향이 있다.
  • 따라서 오픈 소스를 커스터마이징할 때 전문가가 없으면 안전성을 보장할 수 없고, 이는 인력 및 예산 문제와도 관련이 있다.

3.3. AI 안전성에 대한 논의 [00:31:49] (1분)

  • 안전한 AI라는 개념은 전문가들 간에 정의가 모호하며, 그에 대한 논의가 지속되고 있다.
  • 안전의 수준에 대한 합의가 없기 때문에, AI 기술 발전속도에 대한 불안감이 존재한다.
  • 기술 경쟁이 과도하게 이루어질 경우, 제어권의 상실 우려가 있음을 강조한다.
  • 이러한 문제에 대한 정답은 없기 때문에, 양측이 토론을 통해 사회적 공감대를 형성해야 한다는 의견이다.

3.4. 딥시크와 오픈소스의 영향 [00:32:53] (2분)

  • 엔비디아와 반도체 기업들의 주가는 회복 중이며, 관련 산업들이 활성화되고 있는 신호가 감지되고 있다.
  • 엔비디아 주가 회복에 대한 시각은 일시적인 흥행이 아니라, 과민반응에서의 정상화로 해석된다.
  • 챗GPT의 개발 과정에서 오픈소스의 영향이 크며, 이는 후발 주자들에게 매우 어려운 환경을 조성했음을 보여준다.
  • 딥시크의 오픈소스공개로 인해, 새로운 모델의 개발이 급속도로 확산되었으며, 400개의 모델이 사흘 만에 생겨났다.
  • 결국, 오픈소스는 AI 개발의 간소화와 자동화를 가져와, 글로벌 AI 업계에 큰 충격을 주었고 앞으로도 이러한 현상이 지속될 것으로 추정된다.

3.5. ️ 법적 분쟁과 AI 모델의 미래 [00:35:13] (5분)

  • 2003년 SCO와 리눅스 간의 법적 분쟁은 오픈 소스 소프트웨어의 소유권과 도용 문제를 고려할 때, 현재 딥시크에 대한 우려를 환기시킨다.
  • 딥시크가 오픈AI의 데이터 수집을 의심받음에 따라, 정당한 방법으로 훈련되지 않았다면 법적 소송이 발생할 가능성이 높아진다.
  • 저작권 위반 문제는 뉴욕타임즈가 오픈AI를 상대로 법적 논쟁을 벌이며 부각되고 있으며, 이는 다른 언론사들에도 영향을 미칠 것이다.
  • 제본스의 역설에 따라 GPU사용량이 가격 인하와 비례해 증가하지 않을 수 있다는 점에서, AI 기술의 가격 탄력성을 면밀히 평가해야 한다.
  • 미국과 중국 간의 AI 갈등은 엔비디아와 같은 기업에 부정적인 영향을 미칠 가능성이 있으며, 이는 글로벌 AI 패권 경쟁과 관련이 깊다.

 

4. 🤖 AI의 미래와 사무직의 변화 [00:40:42] (17분)

  • AI의 발전으로 인해 향후 5년에서 10년 사이에 사무직의 역할이 변화할 것으로 예상되며, 일자리의 감소 또는 대체가 우려된다.
  • 오픈AI의 목표는 AI가 조직 단위의 업무까지 독립적으로 수행할 수 있게 되는 것이며, 이는 사람의 필요성을 제거하는 방향으로 나아가고 있다.
  • 긍정적으로는 AI가 부가가치를 향상시켜 인간의 노동 시간을 줄일 수 있고, 이는 주 3.5일 또는 주 4일 근무로 이어질 가능성이 있다.
  • 반면 부정적으로는 일부 직업이 완전히 사라짐에 따라 생존에 대한 고민이 깊어질 위험이 크다.
  • 그러므로 사회 구조가 AI의 변화에 맞춰 조정되어야 하며, 이는 과거 산업혁명 시기와 유사한 중요한 전환점이라 볼 수 있다.

4.1. AI의 활용 범위와 사무직의 미래 [00:40:42] (1분)

  • 시민 패널 박홍준은 AI의 활용 범위가 점점 넓어지면서 관심과 걱정이 커지고 있다고 언급한다.
  • 박홍준은 향후 5년에서 10년 내로 AI가 사무직의 역할에 미칠 영향을 질문한다.
  • 그는 또한 인간과 AI의 협업 과정과 사무직이 장기적으로 경쟁력을 유지하기 위해 쌓아야 할 경험에 대해 문의한다.
  • 이는 AI로 인한 대체에 대한 전반적인 걱정이 반영된 질문으로 보인다.

4.2. AI의 목표와 사회적 영향 [00:41:45] (2분)

  • 오픈AI의 목표는 사람들이 필요 없는 AI를 만드는 것으로, 이는 인간의 지능을 초월하는 인공지능을 지향한다.
  • AI의 최종 목표는 회사 단위의 업무를 혼자서 처리할 수 있게 되는 오르가니제이션 단계에 도달하는 것이다.
  • 이 단계가 실현되면, 사람에 대한 필요성이 줄어들게 된다.
  • AI와 협업이 자연스러워지면서 사무직 일자리가 줄어들고, 어떤 직업은 아예 사라질 가능성이 있다.
  • AI가 부가가치를 높여서 인간의 노동 시간을 줄일 수 있는 좋은 그림과 함께, AI에 의해 일자리를 잃고 고민하게 되는 나쁜 그림이 동시에 존재한다.

4.3. AI 연구와 국제 협력의 어려움 [00:44:29] (8분)

  • AI 관련 논문은 오픈소스로 공개되지만, 재현성을 확보하는 것은 여전히 중요하다고 강조된다.
  • 연구자 커뮤니티의 협력 네트워크는 필수적이며, 스캔들 발생 시 연구 환경에 부정적 영향을 미칠 수 있다.
  • 미국과 중국 간의 AI 연구에서 정치적 갈등은 연구 윤리와 협력을 저해하는 요인으로 작용한다고 주장된다.
  • 중국의 AI 투자 및 자원이 엄청나며, 알리바바는 H100을 10만 장 이상 보유하고 있어 한국의 절대 수량을 초과한다.
  • 한국은 AI 대산업 전환기에 비교적 조용한 상황이며, 중국에서는 여러 딥시크관련 기업이 존재한다고 지적된다.

4.4. AI 인재 유출과 생태계 문제 [00:52:35] (3분)

  • 우리나라는 인재가 많지만, 모두가 의사가 되려는 사회적 구조가 문제라고 한다. 따라서 AI 인재 또한 해외로 유출되고 있다.
  • 프랑스는 AI 개발자들이 해외에서 돌아오도록 유도하는 미스터리 전략을 통해 고국으로 돌아오기를 요청하고 있으며, 이 과정에서 비자 문제와 임금 차이를 해결해주겠다고 약속한다.
  • 고성능 컴퓨팅 인프라가 없더라도 클라우드 서비스를 활용하면 된다. 즉, 이를 제공하는 대기업의 서비스를 사용하면 충분하다는 주장이다.
  • 한국에서 AI 모델을 개발하는 데에는 인재의 부족이 큰 장애물로 작용하고 있으며, 필요한 인재를 해외에서 불러오기 위한 노력이 필요하다.
  • 국내 AI 인재의 대우가 열악하여 해외로 유출되는 경우가 많다는 점이 강조된다.

4.5. AI 분야의 생태계 구축과 인재 유출 [00:55:54] (1분)

  • 생태계가 구축되어야 AI 분야에서 함께 일할 동료가 생기고, 이는 다른 인재들이 오픈웨어와 같은 기관으로 유입되는 중요한 요소이다.
  • 카이스트 졸업생들이 해외 취업을 많이 하는 경향이 있으며, 특히 AI 분야에서 두드러진다.
  • 그러나 국내와 해외의 처우 차이를 고려할 때, 졸업생들이 자유롭게 진로를 선택할 수 있도록 존중해야 하며, 억지로 눌러앉히는 것은 인권 침해로 간주된다.
  • 미래에 한국으로 돌아오고 싶은 환경이 마련되어야 하며, 이를 위해 의식적인 노력이 필요하다.
  • 성공 비결은 더 많은 투자가 모든 혁신을 이끌어내지 않는 것을 인식해야 하며, 이는 AI 분야에서도 동일하게 적용된다.
728x90

5. 💡 한국의 AI 생태계와 기술 투자 방향성 [00:57:49] (19분)

  • 창의성은 현재 미국에 집중되어 있으며, 한국은 주로 기술을 모방하는 국가로 인식되고 있다. 따라서, 한국이 창의적인 국가로 발전하기 위해서는 기술 투자뿐 아니라 도덕적 존경을 받을 방향성을 제시해야 한다.
  • 한국의 연구자들은 문화적 자긍심을 갖고 세계적으로 인정받는 성과를 이루어야 한다는 인식이 필요하며, 이를 통해 생태계가 형성될 것이라고 주장된다.
  • AI 개발의 방향성으로, 미국과의 기술 경쟁 속에서 한국이 어떤 분야에서 경쟁력을 발휘할 수 있는지 고민해야 하며, 외국 기술을 활용하여 더 나은 응용 서비스를 만들 가능성도 열려 있다.
  • AI 독립성 강화를 위해, 한국은 자체 거대 언어 모델을 문제없이 만들 수 있는 기술 기반을 갖춰야 하며, 정부와 민간이 협력해야 한다는 견해가 존재한다.
  • 클라우드 규제와 관련하여, 정부의 역할은 과도한 규제보다는 기본 기술 연구 개발을 지원하는 것이며, 민간 주도의 발전이 강조된다.

5.1. 창의성의 필요성과 문화적 자긍심 [00:57:49] (39초)

  • 더 많은 투자가 반드시 더 많은 혁신을 가져오는 것이 아니며, 현재 한국은 모방 국가로 창의성에서 미국에 뒤처져 있다.
  • 한국이 창의성 있는 국가로 나아가기 위해서는 기술 투자가 필요할 뿐만 아니라, 도덕적 존경심을 받을 수 있는 방향성도 제시해야 한다.
  • 한국의 개발자와 연구자들은 전 세계에서 존경받는 문화를 만들어야 하며, 딥시크는 이 목표를 향해 나아가고 있다.
  • 딥시크는 모든 기술을 오픈소스로 공개할 예정이며, 기술에 여러 가지 결함이 존재한다.
  • 이러한 노력들이 성과를 이루었을 때 생태계가 만들어진다고 언급되며, 이 과정에서 느껴지는 흥분과 기대감도 표현된다.

5.2. 오픈AI의 초창기와 현재의 갈등 [00:58:29] (1분)

  • 오픈AI는 비영리 조직으로 시작했으나, 자금 부족으로 영리 조직으로 전환하였다.
  • 초기 목표는 특정 기업, 특히 구글이 AGI를 독점하는 것을 방지하고 이를 인류와 공유하는 것이었다.
  • 연구자들 중 일부는 이러한 초기 목표와 가치가 훼손되었다고 느끼며 상처를 받았다.
  • 샘 알트만은 레딧 커뮤니티와의 대화에서 오픈소스 정책에 대한 진지한 고민이 필요하다고 언급하였다.
  • 그러나 이 발언은 조직의 공식 입장이 아닌, 개별 과학자들의 감정을 반영한 것이다.

5.3. 한국 사회의 AI 인재와 기술 개발 전략 [00:59:35] (3분)

  • 한국 사회가 인재를 모으기 위해서는 금전적 지원이 필요하다고 언급된다. 이에 딥마인드에서 더 높은 급여를 제시했음에도 스톡옵션은 제공하지 않았다고 설명한다.
  • AI 생태계에서의 한국의 위치에 대해 고민해야 하며, AI 전문 인력이 부족한 상황에서 단기적으로 결과를 내기 위해서는 국내 기술 뿐만 아니라 외국과의 협력이 필요하다고 주장한다.
  • '소부장 AI'에 대한 강조가 있으나, 외국 기술을 사용할 경우 데이터 주권 문제가 발생할 수 있으며, 이를 해결하기 위해서는 자체 기술 개발이 중요하다고 지적된다.
  • 클라우드 기술과 AI 관련 논의에서, 핵심 기술 개발 뿐만 아니라 외국 기술의 응용도 중요하다는 주장과 함께, 효율적인 비용과 성능 개선을 위해 많은 이용이 필요하다고 강조한다.
  • 딥시크의 성공을 통해 소프트웨어의 기능과 가격 경쟁력이 소비자의 선택에 중요한 역할을 한다고 설명하며, AI 모델의 활용 가능성에 대한 열린 태도를 요구한다.

5.4. AI 주권과 한국의 독자적 시스템 구축 필요성 [01:03:00] (3분)

  • 정부의 세제, 예산 지원과 인재 모으기, 기업들의 연합을 통해 한국만의 AI 시스템 구축이 매우 중요하다고 평가된다.
  • 우수한 LLM 활용의 중요성에도 불구하고, 한국의 자체 시스템 개발 노력은 절대 포기하지 않아야 한다.
  • 딥시크의 V3 모델은 14조의 토큰을 사전 학습하여 기반 모델을 형성하고, 이를 통해 R1이라는 후속 모델을 개발하였다.
  • 전투기 KF-21과의 비유를 통해, 미국산 엔진 사용의 제약을 언급하며 기술 주권의 필요성을 강조하였다.
  • AI가 보편 기술이 되는 상황에서 한국 엔지니어들이 모여서 파운데이션 모델을 개발하고 오픈소스로 활용할 필요성이 있다고 제안된다.

5.5. 거대 언어 모델과 정부의 역할 [01:06:39] (3분)

  • 거대 언어 모델을 한국이 자체적으로 개발하는 것은 찬성하지만, 이는 학계에서 관리되어야 한다.
  • 한국의 클라우드 컴퓨팅 발전 및 이용자 보호에 관한 법률은 과도한 규제를 동반하고 있으며, 이는 발전과 규제를 동시에 고려해야 할 필요성을 지적한다.
  • 민간 기업이 자율적으로 거대 언어 모델을 개발할 수 있도록 해야 하며, 국가의 개입은 최소화되어야 한다는 입장이다.
  • 스탠포드와 같은 기술 지원을 위한 정부의 역할이 필요하나, 구체적으로 기금 마련이나 인재 모집 지원으로 한정해야 한다.
  • 정부가 시장에서의 직접적인 개입을 피하고, 민간의 연구 개발을 지원하는 방향으로 나아가야 한다고 주장된다.

 
원본영상
https://youtu.be/KCqbaO2jIwg

LIST