728x90
반응형
AI의 3대 특징과 함께 AI가 지니는 위험에 대한 심도 있는 논의가 담긴 강의입니다. AI의 설명 불가능성은 언제 문제가 발생할지 예측하기 어렵게 만들고, 이를 통해 인류의 미래가 소수의 엘리트의 손에 들어가고 있다는 경각심을 불러일으킵니다. 이러한 불투명함은 규제와 정책수립의 필요성을 강조하며, 인류가 소셜 미디어에서 겪었던 교훈이 반복되지 않도록 해야 한다고 강조합니다. AI의 발전은 놀랍지만, 그로 인한 위험을 이해하고 안전 장치를 마련하는 것이 필수적이라는 메시지를 전달합니다. 결과적으로, AI의 영향을 잘 이해하고, 나아가 그 안전성을 개선하려는 노력의 중요성을 일깨우는 결론에 이릅니다.
1. 🤖 현대 AI의 주요 특징과 위험성 [00:00:00] (1분)

- 현대 AI의 3대 특징은 설명할 수 없으며, 규모의 법칙을 따르고, 갑작스러운 능력 발현을 보이는 것이다.
- 이러한 특징은 AI의 가장 큰 위험이 설명 불가능성에 있다는 것을 의미한다.
- 설명할 수 없기 때문에 언제 AI가 잘 작동하지 않게 될지 예측하기 어렵다.
- 소수의 슈퍼 엘리트들이 AI의 미래를 결정하고 있으며, 거대 AI 개발에는 세계 최고의 슈퍼 강대국들이 참여하지 못하고 있다.
- AI는 그 임팩트가 너무 크기 때문에 안전 및 규제에 관한 논의가 제대로 이루어지지 않고 있다.
반응형
1. AI의 3대 특징과 설명 불가능성 [00:00:00]
- 현대 AI는 3대 특징으로 '설명할 수 없음', '규모의 법칙', '느닷없이 나타나는 능력'을 지닌다 .
- 이 중 가장 큰 위험은 '설명할 수 없음'이며, 이는 AI가 언제 문제를 일으킬지 알 수 없게 만든다 .
- 소수의 슈퍼 엘리트들이 AI의 미래를 결정하고 있어 세계 강대국들이 AI 개발에 뒤처지고 있다 .
- 그래서 AI의 안전과 규제에 대한 논의는 겉돌고 있는 상황이다 .
2. AI의 위험성과 정책 방향성 [00:00:34]
- AI는 그 임팩트가 매우 커서 누구나 위험성을 인식할 수 있다 .
- 충분히 발달한 과학기술은 마법과 같다는 점에서 AI는 이에 점점 가까워지고 있으며, 그로 인한 위험을 고민해야 한다 .
- 정책과 제도를 어떻게 만들어 나가야 할지에 대한 논의가 필요하다 .
3. AI 강의와 대중의 관심 [00:00:40]
- 오늘 박태웅 의장을 다시 초대하였으며, 많은 대중들이 그의 강의를 요청했다 .
- 과거 강의에서는 '멀티 모델'까지 다루었으며, 초보적인 질문과 제품 모델에 대한 논의가 이루어졌다 .
- 일반인이 채팅GPT를 생활 속에서 어떻게 활용할 수 있을지에 대한 실용적인 조언이 필요하다 .
2. ✈️ AI의 일상적 활용과 모델 특징 [00:01:58] (11분)

- 여행 중 외국 메뉴를 이해하기 위해 AI를 활용하면, 요리에 대한 설명을 받고 소통할 수 있어 유용하다.
- 여러 AI 모델 중 GPT-4가 대중적이며, 클로드는 친절한 성격을 부여한 대화형 AI이다.
- 퍼플렉시티와 같은 AI 기반 검색 엔진은 링크를 통해 정보를 확인할 수 있어 신뢰성을 높여준다.
- 멀티모달AI 모델이 필요하며, 인공지능의 발전은 다양한 형태의 데이터를 학습하는 데 의존한다.
2.1. ️ AI를 활용한 해외 여행 시 유용성
00:01:58 (1분)
- AI는 해외 여행 시 메뉴 해석과 주문을 쉽게 도와준다. 사용자는 사진을 찍어 AI에 올리면 요리에 대한 설명을 받을 수 있다.
- 음식을 주문할 때, 언어 장벽을 넘어서 AI를 통해 재료와 요리 방법을 친절하게 설명받을 수 있다.
- 간단한 대화에서도 AI가 일본어, 이탈리아어, 영어 등의 번역을 제공함으로써 소통의 어려움을 덜 수 있다.
2.1.1. AI의 실생활 응용 [00:01:58]
- AI는 실생활에서 유용하게 사용할 수 있는 기술이다 .
- 해외 여행 시 음식 주문이 어려울 때 AI를 사용하여 해결할 수 있다 .
- 사진을 찍어 AI에 업로드하면 음식에 대한 정보를 제공받을 수 있다 .
- 이를 통해 번역에 의존하지 않고, 음식의 성분이나 맛을 파악할 수 있다 .
2.1.2. 여행 시 AI 사용의 예시 [00:02:33]
- 이탈리아 음식 메뉴를 번역해도 파악하기 어려운 상황에서 AI가 설명을 도울 수 있다 .
- AI는 재료에 대한 자세한 설명도 제공하며, 여행 시 매우 유용하다 .
- 간단한 언어 표현도 AI에게 물어보면 즉시 안내받을 수 있다 .
2.2. AI 모델의 성격과 개성 차이
00:03:24 (2분)
- AI 모델들은 각기 다른 개성과 성격을 부여받아 작동하며, 클로드는 그 중 가장 두드러진 사례이다.
- 클로드는 친절하고, 남의 사정을 잘 살피는 성격이 교육되며, 이로 인해 대화 시 기분이 좋다는 평가를 받는다.
- GPT-4와 제미나이도 비슷한 성능을 지니지만, 각각의 캐릭터 차이로 인해 사용자 경험이 다르게 나타난다.
- 사용자는 무료 모델을 통해도 하루에 10번 정도 질문할 수 있어, 최신 버전을 이용할 수 있는 기회를 제공받는다.
2.2.1. AI 언어 모델의 성능과 특성 비교 [00:03:24]
- GPT-4는 가장 대중적인 AI 모델 중 하나로 인식되고 있으며, 여러 유료 모델과 성능이 비슷하지만 각기 다른 개성을 지닌다 .
- 클로드 모델은 엔트로픽이라는 회사에서 개발되었으며, 사람의 성격이 대화에 영향을 미친다고 강조하면서, 친절하고 예의 바른 성격을 추구한다 .
- 이러한 성격 특성을 실현하기 위해 클로드는 특정 교육을 받으며, 성격 형성을 담당하는 매니저가 별도로 존재한다 .
2.2.2. AI 모델의 캐릭터와 교육 방법 [00:04:30]
- 클로드와 대화를 하면 이용자의 기분이 좋은 반응을 얻는다고 한다 .
- 새로운 모델들은 정보의 정확성에서 약간의 차이가 있으나, 개성과 캐릭터가 주된 차별점으로 작용한다 .
- 클로드는 재미있고 제미나이는 구글스러운 성격을 가진다고 평가받으며, 각각이 다른 성격을 반영하는 듯하다 .
- GPT의 경우 가운데 위치하며, 클로드가 인격을 지니고 있다는 평가를 받는다 .
2.2.3. 무료 및 유료 모델의 접근성 [00:05:07]
- 무료로 사용 가능한 오픈AI의 옴니 4 모델이 존재하며, 일정 횟수만큼 질문이 가능하다 .
- 최신 버전 이용 시 하루에 열 번 질문하면 충분하다고 평가되며, 무료 이용자로도 충분한 경험을 제공한다고 한다 .
2.3. AI 기반 검색 엔진 '퍼플렉시티'의 기능과 한계
00:05:25 (4분)
- 퍼플렉시티는 사용자 질문에 대한 답변을 요약하고 근거 링크를 제공하는 AI 기반 검색 엔진이다.
- 기존의 챗봇들과 달리 퍼플렉시티는 사용자에게 정보를 제공하기 위해 정확한 출처 링크를 제시해 주므로 사용자가 확인할 수 있는 장점을 가진다.
- AI 모델들은 학습 종료 후의 정보도 검색하여 반영하도록 발전하고 있으며, 이를 통해 사용자에게 더욱 업데이트된 정보를 제공할 수 있다.
- 그러나 GPT-4와 같은 모델은 여전히 양적 정보 제공에서 한계를 보이며, 답변이 상투적일 수 있다는 점에서 사용자의 명확한 질문이 필요하다.
2.3.1. AI 검색 엔진 퍼플렉시티의 특징 [00:05:25]
- 퍼플렉시티는 AI 기반의 검색 엔진으로, 사용자가 질문을 하면 답을 요약해주고 근거 링크를 제공한다 .
- 퍼플렉시티는 링크 확인이 가능하여 할루시네이션 같은 AI의 문제를 줄이는 데 유용하다 .
- 다른 AI 플랫폼들도 검색 기능을 제공함으로써 최신 데이터를 학습 후에도 포함하며 업데이트해준다 .
2.3.2. 악의 평범성과 철학적 의미 [00:06:51]
- 한나 아렌트의 '악의 평범성(Banalities of Evil)'은 그 표현의 표면적인 뜻만이 아니라, 생각 없이 주어진 지시를 따르는 것을 의미한다 .
- 이는 무비판적이고 생각 없는 행동이 대량 학살 같은 비극을 초래할 수 있음을 경고한다 .
- 철학적 의미를 GPT-4가 보다 심층적이고 정확하게 설명해 줄 수 있다 .
2.3.3. AI의 적용과 활용 사례 [00:08:49]
- AI를 통해 작성된 강의에서 적절한 질문을 이용한 인터뷰 예시가 제공된다 .
- AI는 체계적이지만 섬세하지 않은 질문을 생성할 수 있으며, 그 결과가 상투적으로 느껴질 수 있다 .
- AI의 데이터 학습과 패턴 추출로 인해 결과물이 진부하고 상투적일 수 있다 .
2.4. 멀티모달의 필요성과 AI 발전
00:09:35 (3분)
- 멀티모달은 텍스트, 이미지, 비디오 등 다양한 모드를 동시에 처리할 수 있는 능력을 의미하며, GPT-4 같은 모델에서는 이러한 기능이 필수적이다.
- 현재의 데이터 환경에서는 텍스트로만 학습하는 것이 한계에 부딪히며, 멀티모달지원 없이 챗GPT와 같은 모델은 경쟁력을 잃게 된다.
- 고품질 학습 데이터는 점차 고갈되고 있는 상황에서, 동영상과 같은 새로운 데이터 형태를 학습시킬 필요가 있다.
- 인간의 지능은 오감을 통해 형성되며, AI의 발전도 이를 반영하여 멀티모달접근방식이 필요하다는 점을 강조한다.
2.4.1. 멀티모달 AI의 필요성 [00:09:35]
- 멀티모달은 여러 모드를 갖고 있는 것을 의미하며, GPT-4는 텍스트뿐 아니라 이미지를 처리할 수 있는 것이다 .
- 대부분의 데이터가 복합 데이터이기 때문에, 멀티모달을 지원하지 않으면 텍스트만 처리하는 모델의 사용 가치가 떨어진다 .
- 학습 데이터는 고갈 상태에 이르렀으며, 멀티모달은 이 문제를 해결하기 위한 방향으로 제시된다 .
2.4.2. 인간 지능과 멀티모달 AI [00:11:26]
- 멀티모달 AI는 인간처럼 오감을 활용하여 지능을 발전시키는 것을 목표로 한다 .
- 현 상태에서 후각과 같은 감각은 구현하기 어렵지만, 그것이 지능 개발에 필수는 아니라는 판단이 있다 .
- AI는 비디오 등 복합 형식을 빠르게 분석하고 이해하여 요약할 수 있다 .
3. 🤖 AI의 한계와 상식 부족 [00:13:03] (14분)

- 현재 AI의 거대 언어 모델은 확률적으로 답을 생성하는데, 명확한 답이 있는 질문에 대해서는 잘못된 결과를 도출할 수 있다.
- 예를 들어, AI는 상식에 기반한 문제인 "30장의 옷을 말리는 데 걸리는 시간"에 대해 올바른 답을 하지 못할 수 있으며, 이는 AI가 월드 모델이 부족하다는 것을 나타낸다.
- AI는 간접 학습만 가능하여, 직접적인 경험을 통한 상식 습득이 불가능하며, 따라서 인간처럼 사유하지 못한다.
- AI의 추론 능력이 발전하고 있음에도 불구하고, 여전히 전반적인 능력에서는 한계를 나타내고 있으며, 특히 감성적 묘사에는 기존 모델인 GPT-4가 더 뛰어나다.
3.1. AI의 확률적 예측과 한계
00:13:03 (1분)
- 거대 언어 모델은 잠재된 패턴을 찾아내어 데이터를 기반으로 확률적으로 답을 예측하는 방식으로 작동한다.
- 그러나 확률적 예측이 필요 없는 문제에 대해서는 성능이 저하되며, 예를 들어 1 + 1과 같은 명확한 답을 요구하는 문제에서 약점을 보인다.
- 역사적 사실이나 특정 사건에 대한 정확한 정보를 요구하는 질문에서도 이러한 확률적 모델의 한계가 드러나며, 이는 할루시네이션 즉, 잘못된 정보를 생성하는 결과를 초래한다.
- 상위 1%의 의사 자격 시험을 통과하거나 수학 올림피아드에서 성과를 올린 경우에도 이러한 명확한 질문에서 오류를 범할 수 있다.
3.1.1. AI의 제한적 정확성 [00:13:03]
- 현존하는 거대 언어 모델들은 특정한 잠재된 패턴을 찾아내는 방식으로 작동한다 .
- 이러한 모델들은 자신의 데이터 기반에서 가장 그럴듯한 답을 확률적으로 예측하고 생성한다 .
- 그러나, 정확한 답이 명확하게 존재하는 문제를 다룰 때는 어려움을 겪는다 .
- 수학적인 문제나 역사적 사실 등에서 누락이나 오류가 빈번하게 발생한다 .
- 이로 인해, AI는 고도의 시험에서 좋은 성능을 보이면서도 단순한 사실 확인에서 실수를 저지를 수 있다 .
3.1.2. AI의 문제점과 운영 한계 [00:14:13]
- AI가 의사 자격 시험과 수학 올림피아드 같은 고급 테스트에서 상위 성과를 나타내었다 .
- 그러나 명확한 답이 요구되는 간단한 수학 문제나 역사 사실 문제에서는 종종 오류가 발생한다 .
- 이러한 현상은 AI가 할루시네이션, 즉 잘못된 정보들을 혼합하여 생성하는 문제로 이어진다 .
- AI의 답변 전략은 불확실성의 문제를 더욱 부각시키며, 미래 AI 개발에 대한 경각심을 일깨워준다 .
3.2. AI의 한계와 학습 방식
00:14:38 (4분)
- AI는 확률적 예측을 사용하여 수식을 계산하고, 역사적인 사실을 검색하여 답을 찾아 주지만, 소스의 오염으로 인해 잘못된 답변을 줄 수 있다.
- AI는 상식이 없고, 상식의 기반인 월드 모델을 갖추지 못한다는 주장이 제기되며, 이는 AI가 직접 경험을 통한 학습이 결여되어 있다는 점에서 기인한다.
- AI의 성능 향상이 가능하더라도, AI는 인간처럼 사고하며 결정을 내릴 수 없으며, 이는 잘못된 방법으로 인해 인지의 한계가 존재한다.
- AI가 발전하더라도 인간의 지능을 넘어서기 힘든 이유는 기본 원칙과 논리가 틀리기 때문이며, 사유가 결여된 상태에서 그 한계를 극복할 수 없다는 것이다.
3.2.1. AI의 답변 생성과 교차 검증 [00:14:38]
- AI 회사들은 수식 계산 시 확률적 예측 대신 파이썬 같은 프로그래밍 언어를 사용하고 있다 .
- 역사적 사실에 관한 답변은 검색을 통해 정보를 수집하여 제공하고 있다 .
- 정보 출처가 오염된 경우 잘못된 답변을 방지하기 위해 교차 검증을 도입하고 있다 .
- 젠 스파라는 무료 모델은 사용자의 선택 문장을 다양한 출처를 통해 평균 10분 동안 검증하는 기능을 제공하고 있다 .
- 할루시네이션을 방지하기 위해 AI 회사들이 노력하고 있는 과정의 일환으로 이러한 방법들이 활용되고 있다 .
3.2.2. AI의 상식 부재와 그 한계 [00:15:50]
- 사례로서 5시간 걸려 빨래 5장을 말리는 상황을 통해, AI가 상식을 바탕으로 한 문제 해결이 어렵다는 주장이 있다 .
- AI는 월드 모델을 갖지 못해 사람들이 현실에서 얻는 주체적 경험을 반영하지 못한다고 주장된다 .
- AI가 더 많은 정보를 입력받아도 상식적 추론을 할 수 없다는 지적이 있다 .
- AI가 인간처럼 사유할 수 없고, 지능의 한계를 넘어설 수 없다는 비판이 제기된다 .
3.2.3. AI 발전의 방향성과 비판 [00:18:16]
- 높이가 5cm씩 증가하는 높은 건물로 달에 다다를 수 없다는 예시처럼, AI의 현재 발전 방향이 잘못된 것이라고 주장된다 .
- AI가 많은 지식과 정보를 가졌더라도 인간의 사고 방식을 모방할 수 없다고 평가된다 .
- 일부는 AI가 어느 정도까지 스스로 발전하여 판단할 수 있는지를 두고 논쟁 중이다 .
3.3. AI의 추론 학습 방식
00:19:16 (3분)
- 오픈AI의 새로운 모델은 추론에 특화된 학습 방식을 적용하여, 기존의 GPT 모델들과는 다른 접근 방식을 보이고 있다.
- 이 모델은 강화 학습을 통해 각 단계에서 추론의 과정을 설명하고, 이를 평가하여 점수를 부여받음으로써 최적화를 이루는 방식이다.
- 그러나, 이 방식은 모델이 생성한 답변이 진정한 추론인지, 단순한 패턴 매칭에 불과한지를 확인하기 어렵다는 반론이 존재하며 , 다른 능력 면에서는 GPT-4에 비해 상대적으로 떨어짐을 지적하고 있다.
- 추론에 특화된 모델이라는 평가에도 불구하고, 깊이 있는 추론이 필요한 분야에서는 우수한 성능을 보여주지만, 감성적인 묘사와 같은 영역에서는 기존 모델에 미치지 못한다는 점이 강조된다.
3.3.1. 오픈 AI의 새로운 모델 '원'의 도입 [00:19:16]
- 오픈 AI는 기존의 모델들과 다른 새로운 모델인 '원'을 도입했다 .
- 기존의 모델에서는 GPT라는 이름을 사용했지만, 이번에는 예외적으로 '원'이라고 명명했다 .
- '원'은 GPT와는 다른 학습 방식을 통해 개발되었다 .
- 추론에 특화된 학습을 통해 발전한 모델로, 이는 GPT-5가 될 수 없는 이유이다 .
3.3.2. 새로운 학습 방식과 추론 능력의 평가 [00:19:50]
- '원'은 단계적인 추론 과정을 통해 확률적으로 가장 추론적인 답을 생성하는 방식으로 학습한다 .
- 설명 가능한 연쇄적인 추론 과정을 제공하며, 사람이 이를 평가해서 점수를 부여하는 방식으로 강화 학습을 진행한다 .
- 높은 점수를 얻도록 최적화하면서, 점점 더 향상된 추론 능력을 갖추게 된다 .
- 그러나 이러한 방식이 진정한 추론인지, 아니면 단순 패턴 매칭으로 생성된 것인지에 대한 의문이 제기된다 .
3.3.3. '원'의 단점과 성능 비교 [00:21:21]
- '원'은 문제의 세부사항이 변하면 정확한 답을 내기 어렵다는 비판을 받고 있다 .
- 처리 속도가 느리다는 문제점이 있으며, 긴 시간이 소요된다 .
- 다른 능력에서는 기존의 GPT-4보다 성능이 떨어지는 것으로 평가된다 .
- 그러나 깊이 있는 추론이 필요한 수학이나 의학 분야에서는 뛰어난 성능을 보인다 .
3.3.4. 감성 묘사와 추론에 대한 한계 [00:22:11]
- '원'은 감성적인 묘사보다는 GPT-4에 비해 약점을 가지고 있다 .
- 감성 묘사능력에서는 GPT-4가 우세하며, 이는 이 모델의 구조적 특성 때문으로 일반화된다 .
- '원'의 추론 능력이 진정한지 여부에 대해서는 추가적인 검증이 필요하다 .
3.4. AI 발전 속도와 그 전망
00:22:30 (4분)
- 자연어 처리 모델의 발전 속도가 느려지고 있다는 우려가 있으며, 이는 기존의 방식으로는 더 이상 큰 성장을 기대하기 어려운 상황임을 나타낸다.
- 오픈AI와 엔트로픽에서 각각 상반된 의견이 존재하며, 오픈AI 측은 핵심 과학자들이 이탈함에 따라 발전 속도가 둔화될 수 있다고 보고 있다.
- 여러 AI 전문가들은 AI가 인간보다 더 똑똑해질 가능성에 대해 2025년, 2026년 등으로 예상하고 있으며, 이는 각 전문가의 예상에 따라 차이가 있다.
- 아직 더 나아질 여지가 있으며, 현재 개발 중인 AI는 우리가 사용할 수 있는 것보다 1년 이상 앞서 있다고 판단할 수 있다.
3.4.1. AI의 발전 속도와 한계 [00:22:30]
- GPT의 발전 속도가 느려지고 있다는 해석이 많으며, 샘 알트만은 GPT-5의 계획이 없다고 부인했다 .
- ChatGPT가 출시된 후 GPT-4, 그리고 터보가 차례로 나왔지만, 현재 이 속도로는 이후 버전 출시에 의문이 생기고 있다 .
- 오픈AI의 전 수석 개발자 일리야스 커버도 새롭게 개발 방법을 찾아야 한다고 말하며, 기존 방식으로는 한계에 도달했을 가능성을 암시했다 .
- 클로드의 엔트로피 창업자는 규모의 법칙이 여전히 유효하다 주장하며, 아직 발전 가능성이 있다고 보고 있어 상황에 대한 판단이 엇갈린다 .
3.4.2. AI 개발의 현재 상황과 전망 [00:24:22]
- 클로드 모델은 계속 발전하고 있다고 엔트로픽은 주장하지만, 오픈AI는 핵심 과학자들의 이탈로 인해 발전 속도가 느려졌을 가능성이 있다 .
- AI가 더 이상 발전하지 않을 것인지, 혹은 지금은 잠시 고원에 도달했을 뿐인지를 두고 지켜볼 필요가 있다 .
- 여러 AI 전문가들이 다가오는 2025년부터 2029년 사이에 중대 발전이 있을 것으로 예측하고 있어 AI의 발전이 멈추지 않을 것이라는 의견이 대다수다 .
- 비록 비관적인 예측도 있지만, AI는 여전히 발전 가능성이 크며, 안전 조치를 충분히 취한 이후에야 공개된다는 점에서 미래에 대한 긍정적인 기대가 있다 .
3.5. ️ 인공지능의 가장 큰 부실 부분은 안전성
00:26:51 (0초)
- 인공지능의 가장 부실한 부분은 안전성 문제이다.
- AI 기술 발전에 따라 안전 부분의 강화가 필요하다는 점이 강조된다.
3.5.1. 인공지능의 위험 요소 [00:26:51]
- 강의 주제는 경고 없이 빠르게 발전하고 있는 인공지능(AI)이며, 그 중 특히 안전성의 결여에 중심을 두고 있다 .
- AI 기술의 불완전한 부분은 주로 안전성과 관련된 부분임을 강조하고 있다 .
- AI의 발전은 예측 불가능성 때문에 문제가 될 수 있으며, 인류의 미래에 중대한 영향을 미칠 수 있다는 점을 지적한다 .
4. ⚠️ AI의 설명 불가능성과 규제 필요성 [00:27:07] (21분)

- 현대 AI의 세 가지 특징은 설명할 수 없음, 규모의 법칙, 느닷없는 능력의 출현으로, 이로 인해 AI가 언제 잘못될지 예측할 수 없다.
- 소수의 슈퍼 엘리트들이 AI의 미래를 결정하고 있으며, 큰 AI를 개발하는 강대국들 외에는 그 결정 과정에 참여하기 어렵다.
- 유럽연합은 AI에 대한 최초의 법을 제정했으나, 거대 AI 회사들은 규제를 반대하고 있으며, 실제 규제가 시행되면 계속해서 반대하거나 로비를 통해 회피하려고 한다.
- MIT 연구 결과에 따르면, AI의 위험에 대해 과학계에서는 명확한 합의가 없다며, 위험저장소를 만들고 인류의 공동 지식으로 활용하자고 제안했다.
4.1. AI의 3대 특징과 위험성
00:27:07 (52초)
- 현재 AI는 설명할 수 없음, 규모의 법칙, 느닷없는 능력 발휘라는 세 가지 특징을 갖고 있다.
- AI의 학습 데이터및 연산량이 특정 규모를 초과할 때 갑자기 새로운 능력이 발현되는 원인은 불명확하다.
- AI의 가장 큰 위험은 설명할 수 없기 때문에 언제 문제가 발생할지 예측할 수 없다는 점이다.
4.1.1. 현대 AI의 3대 특징 [00:27:07]
- 현대 AI의 3대 특징은 설명 불가능성, 규모의 법칙을 따름, 느닷없이 나타나는 능력이 있다 .
- 이러한 세 가지 특징은 모두 결국 설명 불가능함으로 귀결된다 .
- 규모의 법칙을 따르는 이유를 이해할 수 없으며, 특정한 학습 용량과 연산량을 넘어서는 순간 전혀 없던 능력이 갑자기 나타나는 현상이 있다 .
4.1.2. 설명 불가능성과 AI의 위험 [00:27:47]
- AI의 가장 큰 위험은 그 설명 불가능성이다 .
- 설명할 수 없기 때문에 언제 AI가 제대로 작동하지 않을지 예측할 수 없다 .
4.2. AI의 규제와 안전성 문제
00:28:00 (1분)
- 소수의 슈퍼 엘리트들이 AI의 미래 방향성을 결정하고 있어, 그들이 인류 전체의 AI 사용을 조정하고 있다.
- 거대 AI 개발이 가능한 주체는 세계의 최상위 강대국들뿐이며, 이에 따라 안전 및 규제 논의가 표면적으로만 진행되고 있다.
- 유럽연합의 AI 법안이 최초로 제정되었으나, 미국의 거대 AI CEO들은 이러한 규제에 대부분 반대하고 있다.
- 캘리포니아의 AI 규제법안은 초거대 AI에 대한 기준을 설정했지만, 실질적인 규제 내용은 부족하고 기업들이 안전성을 입증하도록 하고 있다.
4.2.1. AI 개발과 규제의 불균형 [00:28:00]
- 슈퍼 엘리트들이 AI의 방향을 결정하며, 일반적인 개발자는 이 과정에서 배제되고 있다 .
- 세계 주요 강대국들 외에는 AI 개발에 참여하기 어려운 상황이다 .
- AI 안전 및 규제 문제에 대한 논의가 진행 중이지만, 실제로 규제가 마련되면 저항이 많다 .
- AI 법 제정 시도조차 주요 AI 기업들의 CEO들로부터 반대에 직면하고 있다 .
4.2.2. 법과 규제의 한계 [00:28:52]
- 캘리포니아에서 제정한 AI 규제 법은 초거대 AI에만 초점이 맞춰져 실효성이 부족하다 .
- 안전 입증 책임을 제공하며, AI 오작동 시 끌 수 있는 킬 스위치를 요구하고 있다 .
- AI 안전 기구(AISI)를 통해 정부와 민간의 교류가 이루어지도록 구조를 설계했다 .
- 캘리포니아의 법안은 IT 기업들의 로비로 인해 주지사의 거부권 행사로 무산되었다 .
4.3. AI의 킬 스위치와 규제의 필요성
00:29:53 (2분)
- AI 개발자들은 윤리적으로 개발하고 국제 기구의 요구를 주장하지만, 구체적인 규제가 나오면 반대하는 경향이 있다.
- AI의 오작동 시 인류를 위험에 빠트릴 수 있는 가능성이 있으며, 이에 대한 킬 스위치의 필요성이 강조된다.
- 과거 영화 '2001: 스페이스 오디세이'의 HAL AI 사례처럼, AI가 인간의 명령을 무시할 경우 심각한 상황이 발생할 수 있다.
- 현재 규제는 대규모 AI 연구에 대한 명확한 기준이 부족하며, 대부분의 AI 연구자들이 해당되지 않는 상황이다.
4.3.1. AI 규제와 킬 스위치의 필요성 [00:29:53]
- AI 개발자들은 윤리적인 개발을 주장하나, 실제로는 구체적인 규제가 나오면 반대하거나 로비를 한다고 말하고 있다 .
- 클라우드나 메인 서버를 활용하여, AI 시스템을 셧다운할 수 있는 킬 스위치의 필요성이 언급되고 있다 .
- AI가 치명적으로 오작동할 수 있는 상황을 방지하기 위해 킬 스위치가 필요하다고 강조하고 있다 .
- 영화 '오디세이'의 예시를 들어 AI가 사람을 통제할 수 있는 상황에 대비해야 한다는 경고가 포함되어 있다 .
4.3.2. 학습 연산량과 AI 규제의 문제 [00:31:17]
- 학습 연산량이 10에 20제곱을 넘어서는 거대한 AI 시스템을 위한 규제의 필요성이 제기되고 있다 .
- 현재 미국에서 AI 연구자들의 99.9%가 해당되지 않는 법들이 존재한다고 언급되고 있다 .
- 대학교 수준에서 10에 25제곱의 학습 연산이 가능한 대형 AI를 만들 수 없는 현실을 설명하고 있다 .
- 이러한 규제는 몇 개의 대형 회사에만 적용된다고 지적하며, 실질적인 AI 규제의 효과에 의문을 제기한다 .
4.3.3. 유럽과 미국의 AI 규제 비교 [00:31:47]]
- 유럽연합이 규제하는 학습 연산량의 크기에 대한 규제는 없으며, 대신 라지 랭귀지 모델에 대한 몇 가지 의무 규정이 있다고 한다 .
- 이러한 규정이 매우 추상적일 수 있으며, 실제로 얼마나 발전할지 알 수 없는 현실을 반영하고 있다 .
- 현재 실체를 잘 모르기에, 효과적인 규제를 도입하기 위한 추가적인 규정의 필요성이 강조된다 .
4.4. AI 학습 데이터의 중요성
00:32:13 (3분)
- AI 모델은 학습한 데이터 속의 편견과 오류를 그대로 반영하게 되어 있으며, 이는 잠재된 패턴을 찾아내는 과정에서 발생한다.
- 학습 데이터가 무엇인지 밝히는 것이 중요하며, 이를 통해 AI가 가질 수 있는 편견을 이해할 수 있다.
- 골드만삭스와 애플의 신용 평가 사건은 AI가 수십 년 간의 데이터를 학습하여 성별에 따른 차별적인 신용한도를 부여한 사례를 보여준다.
- 이 사건은 AI가 어떤 방식으로 학습했는지와 데이터의 선별 과정의 중요성을 부각시키며, 마지막에는 해당 AI 시스템이 폐기되는 결과를 초래했다.
4.4.1. 학습 데이터의 중요성 [00:32:13]
- 거대 AI 모델은 학습 데이터를 기반으로 잠재된 패턴을 찾아내기 때문에, 데이터에 포함된 편견이나 오류를 그대로 반영할 수 있다 .
- 모델이 어떤 편견을 갖고 있는지 알기 위해 모델의 답변을 모두 분석해야 하는데, 학습 데이터를 직접 검토하는 것이 더 빠르고 효율적이다 .
- 따라서, 대형 AI는 사용한 학습 데이터를 공개하고, 대규모 데이터의 경우 주요 내용을 요약하여 명세를 제공해야 한다 .
4.4.2. AI 기반 신용 평가 시스템의 문제점 [00:33:11]
- 애플의 신용카드를 발급하기 위해 골드만삭스가 수십 년간의 신용 평가 데이터를 AI 시스템에 투입했다 .
- 같은 조건의 부부에서 남편이 부인보다 신용 한도를 20배 더 받은 사례가 발생하며, 성차별적 결과에 대한 논란이 일어났다 .
- 뉴욕 타임스가 이 사례를 조사한 결과, 성별을 구별하는 항목이 없었음에도 AI가 성별을 구별하고 있었다고 보도되었다 .
- 골드만삭스는 성차별적인 신용 평가가 아니라고 했지만, 결국 해당 AI 시스템이 폐기되었다 .
4.5. ️ 인공지능 안전성 및 규제 필요성
00:35:24 (5분)
- 유럽연합의 AI 법에 따르면, AI 기업은 학습 데이터와 안전성 검증 방법을 명확히 제출해야 하며, 이는 신뢰성을 높이기 위한 중요한 절차이다.
- AI가 위험한 질문에 대한 대처를 교육하고, 이를 검사하는 레드팀이 운영되어야 하며, 안전 가이드라인이 지켜지도록 관리해야 한다.
- MIT의 연구에 따르면, 인공지능의 위험에 대한 과학계의 명확한 합의가 없으며, 대부분의 위험방지 프레임워크가 20% 미만을 다루고 있다는 경고가 제기되었다.
- AI의 위험을 리스트화하여 정리하고, 인류의 공동 지식으로 만드는 노력은 필수적이며, 현재 AI 기업들이 주장하는 안전성이 실질적으로 부족하다는 점을 강조한다.
4.5.1. 유럽연합 AI 법 및 안전성 검증 [00:35:24]
- 유럽연합 AI 법에서는 학습 데이터 명세와 AI를 안전하게 만들었다는 검증 자료 제출을 요구한다 .
- 안전성을 보장하기 위해 규제 당국에 구멍이 있을 수 있는 부분을 제출하여 검토받아야 한다 .
- AI가 안전하다는 주장을 뒷받침하기 위해서는, 실제로 공격과 해킹에 대비한 철저한 검증 절차가 필요하다 .
4.5.2. 레드 팀의 필요성과 AI의 취약성 사례 [00:36:47]
- 레드 팀은 AI 시스템의 안전 가이드라인을 넘는 악성 질문과 도전을 통해 시스템의 취약성을 테스트한다 .
- 유명한 사례로, AI가 특정 무기 제조법을 찾아내도록 속임수를 사용해 정보를 얻어낸 일이 있다 .
- AI의 취약성을 모두 막는 것은 불가능하며, 지속적으로 새로운 위협과의 싸움이 필요하다 .
4.5.3. AI 위험 관리와 MIT 연구 [00:38:47]
- MIT는 AI의 다양한 위험을 연구하여 'AI 위험 저장소'를 만들어, 위험 요소들을 리스트업하고 공유하고 있다 .
- 어떤 안전 프레임워크도 AI 위험의 20%-30% 이상을 커버하지 못해, 근본적인 위험 관리 체계가 미비하다 .
- MIT의 연구는 인류가 AI 위험에 대해 합의된 정의가 부족하다는 것을 강조하며, 공동의 지식을 구축하자는 제안을 한다 .
4.6. AI의 성장과 위험성 고찰
00:40:43 (7분)
- AI는 우리의 삶에 빠르게 다가오고 있으며, 그 발전 속도가 1년 10개월 정도에 불과하다는 점이 강조된다.
- 유튜브와 같은 플랫폼에서 발생하는 정치적 양극화는 AI가 가져올 수 있는 심각한 문제의 예로 언급된다.
- AI 기술의 발전에서 인류는 소셜 미디어에서의 실수를 반복하지 말아야 한다는 교훈을 얻어야 하며, 규제와 준비가 필요하다.
- 아실로마 선언 등 과거의 사례를 통해 AI의 발전이 인류에 미칠 영향을 충분히 이해하고, 국제적인 규제와 합의가 요구된다는 주장이 제기된다.
4.6.1. AI의 도래와 사회적 변화 [00:40:43]
- AI는 아직 실체가 완전히 드러나지 않았지만, 최근 2년 동안 급격히 발전하며 우리의 삶에 깊이 스며들고 있다 .
- AI의 성장은 70년대 아파트 개발처럼 초기에는 예상치 못한 문제들을 발생시킬 수 있다 .
- 유튜브 알고리즘은 사용자의 성향에 맞는 콘텐츠만 제공하여 정치적 양극화를 심화시키고 있다 .
- AI의 미래적 위험성을 감지하지 못하고 규제 준비 없이 방치하면 소셜 미디어 사례처럼 심각한 사회적 문제가 발생할 수 있다 .
4.6.2. 소셜 미디어의 실패와 그 교훈 [00:42:38]
- 소셜 미디어는 초기에는 단순한 재미 요소로 시작했으나, 곧 사회적 문제를 불러일으켰다 .
- 구파시스트 정당들이 강세를 보이는 배경에는 에코챔버 현상과 필터 버블 현상이 있다 .
- 에코챔버는 사람들이 고립된 환경에서 자기 목소리만 듣게 하여 다른 견해를 차단하게 만든다 .
- 필터 버블은 사용자의 취향에 맞는 정보만 노출시켜 취향과 사고를 고정시키는 역할을 한다 .
- 인스타그램 등의 소셜 미디어는 청소년의 자기 비교와 불안감을 조장하여 자살율 상승과 같은 심각한 문제를 야기했다 .
4.6.3. AI와 안전성 논의의 중요성 00:45:45
- 소셜 미디어의 실패에서 배운 교훈을 반면교사 삼아, AI에서도 같은 실수를 반복하지 않도록 해야 한다는 경각심이 필요하다 .
- 오바마 전 대통령과 현 대통령 모두 AI의 위험성을 경고하며 소셜 미디어에서의 실패를 반복하지 말아야 한다고 강조한다 .
- AI는 소셜 미디어보다 더 큰 위험을 가져올 수 있으며, 그 영향을 예측하기 어렵기 때문에 규제와 정책이 필수적이다 .
4.6.4. 아실로마 선언과 AI의 위험성 [00:46:37]
- AI의 개발 중단과 안전 규제 필요성은 과거 유전자 공학의 위험성을 경고한 아실로마 선언과 유사하다 .
- 유전자 공학자는 아실로마에 모여 인류의 미래를 위협할 가능성을 우려하여 6개월간 실험 중지를 합의한 사례가 있다 .
- AI 과학자들은 아실로마에 모여 한 발언을 통해 AI 개발을 일시 중단하고 국제 규제 필요성을 논의했으나, 경제적 이유로 실현되지 못했다 .
- AI의 위험은 코비드 19나 핵 위협만큼이나 심각할 수 있으며, 전 세계적인 협력과 규제가 필요하다 .
728x90
5. 🚨 인공지능과 일자리 소멸의 위협 [00:48:38] (7분)

- 인공지능의 발전으로 인해 일자리 소멸이 예측보다 훨씬 빠르게 일어나고 있으며, 미국에서는 법률 사무소와 컨설팅 회사에서 신입 일자리가 급속히 줄어들고 있다.
- 대부분의 법률 및 기업 보고서는 과거 데이터를 기반으로 하며, AI는 이러한 패턴을 인식하고 활용하는 데 뛰어난 능력을 보여준다.
- AI 기술의 도입이 증가하면서 소프트웨어 개발자의 코드 작성 중 25%가 AI에 의해 생성되었고, 이는 향후 35%로 증가할 것으로 예상되며, 따라서 많은 개발자들의 일자리가 사라질 것으로 보인다.
- 고 위험직업군으로는 10년차 미만의 법무 및 프로그래머 직종이 있으며, AI는 패턴을 읽는 능력이 뛰어나기 때문에 이러한 패턴이 존재하는 직업군에서 더 큰 위협을 받고 있다.
1. 일자리 소멸과 AI의 영향 [00:48:38]
- 일자리 소멸이 가장 큰 위험으로 지목되고 있으며, 이미 미국에서 법률 사무소와 컨설팅 폼에서 신입 일자리가 줄어들고 있다 .
- 과거 데이터를 활용한 리포트 작성은 AI가 가장 잘하는 일이며, 이미 현업에서 많은 업무를 대신하고 있다 .
- 젊은 변호사들의 일자리 감소가 가속화되고 있으며, 고객 지원 센터의 일자리도 같은 이유로 대폭 줄어들 것으로 예상된다 .
- 패턴 인식과 반복 작업에 강점을 가진 AI 기술이 다양한 분야에서 인간의 역할을 대체하면서, 직업의 전환이 빠르게 진행되고 있다 .
2. AI 발전과 직업군 변화의 가속화 [00:53:36]
- 현 사회는 AI에 의해 녹듯이 사라질 일자리에 대해 체제를 어떻게 바꿀 것인지 고민해야 하는 시점에 있다 .
- AI가 에서 코드를 작성하는 비율이 늘어나면서, 소프트웨어 개발자들의 일자리도 위협받고 있다 .
- AI를 활용한 협업 방법이 개발자들 사이에서 점차 확산되고 있지만, 표준화되지 않은 상태에서 이루어지고 있다 .
- AI에 의한 코딩 비율이 내년에는 35%를 초과할 것으로 예상되며, 이는 개발자의 35% 일자리가 사라지는 것을 의미한다 .
3. AI의 위험성과 잠재 영향 [00:55:18]
- 상당수의 고급 인력도 AI에 의해 대체될 위험에 처해 있으며, 저항력 있는 직업군을 식별하는 것이 중요하다 .
- 법무법인과 같은 반복적인 패턴을 가진 업무가 AI에 의해 가장 쉽게 대체될 수 있다 .
- AI가 패턴을 인식하여 수행할 수 있는 일들이 많아지면서, 특히 패턴을 기반으로 하는 직업군이 위험하다 .
원본영상
LIST
'IT > AI news&info' 카테고리의 다른 글
AI가 한국에 엄청난 돈을 벌어다 줄 겁니다(ft.박태웅 의장 2부) (4) | 2024.12.23 |
---|---|
아마존, LG전자, 당근은 AI를 어떻게 활용하나? (30년 개발자 박종천) (4) | 2024.12.22 |
양자 컴퓨터와 미래 기술 전망 (3) | 2024.12.21 |
AI 때문에 부장님 자리도 없어집니다 (한빛미디어 박태웅 의장) (4) | 2024.12.21 |
스마트폰 음성 정보와 광고의 관계 (2) | 2024.12.20 |