[ITNews] 2024년 2월 첫째 주

“챗GPT가 스스로 운전한다?” 자율주행과 LLM의 결합 현주소

소규모 모델에서의 자율 주행 

자율 주행은 아직 소규모 모델에서 실행된다. 많은 수의 단일 작업 모델, 특수 센서, 정밀한 지도의 결합을 통해 인상적인 프로토타입이 나왔지만 현재 수준으로는 아직 일상적인 운전자를 지원하는 데 필요한 수준의 안전성이나 규모는 제공하지 못한다. 여전히 다음과 같은 요소에 발목이 잡혀 있다. 
 

  • 제로샷 일반화. 기존 모델은 흔히 운전의 "긴 꼬리"라고 하는, 이전에 본 적이 없는 시나리오에서 실패하는 경우가 많다. 충분히 학습되지 않은 모델은 앞선 원칙에서 다음에 해야 할 일을 추론하는 능력이 없다. 해결책은 또 다른 특수 목적 모델을 구축하는 것이다. 매핑하기 어려운 동적 시나리오는 대부분의 자율 제품에서 중대한 약점이다. 
  • 운전자와 행위자의 의도 해석. 기존 모델은 차량 내의 운전자와 차량 외부의 도로 행위자 모두에 대해 인간의 상호작용과 의도에 따른 미묘한 의미를 이해하지 못한다. 
  • 전 세계의 정확한 지도 제작. 지도가 잘 만들어진 지역은 대부분 운전이 가능하지만 지금까지 입증된 바로는 정확한 HD 지도 제작은 확장이 어렵다. 정확한 지도가 없으면 지도 기반 운전 역시 제대로 작동하지 않는다. 
  • 차량 확장. 소규모로 운영되는 지금의 로보택시는 특수 센서와 고가의 컴퓨팅, 그리고 많은 특수 목적 모델의 조합을 사용하는데, 이런 복잡하고 비싼 구조 탓에 일상적인 운전자까지 확장되기는 어렵다. 

 

LLM과 긴 꼬리 문제 

모든 응용 분야의 모델 엔지니어들은 현재 LLM을 일종의 초강력 개발 툴로 사용해서 모델 엔지니어링 프로세스의 거의 모든 측면을 개선하고 있다. LLM은 시뮬레이션 환경 개발 및 개선, 방대한 데이터 집합의 정렬, 이해 및 레이블 지정, 신경망 "블랙박스"의 해석과 디버깅에 매우 유용하다는 것이 입증됐다. 개발 프로세스에서 LLM의 가장 큰 이점 중 하나는 복잡한 다단계 로직을 자연어로 표현하므로 전문가 코드가 불필요하고 이를 통해 개발 속도를 높일 수 있다는 것이다. 이는 코드 기반 전반에 걸쳐 복잡한 종속성이 있는 텍스트 요약 또는 코드 완성과 같은 복잡한 문제 영역에서 매우 유용하다는 사실이 이미 입증됐다. 

이러한 모든 엔지니어링 툴은 자율성을 포함한 개발 작업을 광범위하게 개선할 수 있지만, 가장 흥미롭고 영향이 큰 LLM 응용 분야는 운전 작업 자체, 즉 복잡한 시나리오에 대해 추론하고 가장 안전한 경로를 계획하는 것이다. 자율 주행은 특히 까다로운 문제다. 레거시 알고리즘과 모델을 훨씬 뛰어넘는, 인간과 유사한 수준의 복잡한 추론이 필요한 엣지 케이스가 있기 때문이다. LLM은 단순한 상관관계를 넘어 실제로 "세계를 이해"할 수 있다는 가능성을 보여줬다. 새로운 수준의 이 같은 이해는 운전 작업으로 확장되어 명시적인 교육 없이도 안전하고 자연스러운 조작으로 복잡한 시나리오를 탐색할 수 있게 해준다. 

기존 모델은 교차로에서 도로공사 작업자가 있거나 사고 현장 주변을 지날 때 혼란을 겪을 수 있지만 LLM은 상당한 수준으로 능숙하게 적절한 경로와 속도를 추론할 수 있는 능력을 보여줬다. LLM은 이전에 겪은 적이 없는 상황, 즉 '긴 꼬리' 문제를 해결할 수 있는 새로운 방법을 제시한다. 긴 꼬리는 지난 20년 동안 자율 주행이 풀지 못했던 과제다. 
 

자율 작업에서 LLM의 한계 

지금의 대규모 언어 모델에는 자율 애플리케이션과 관련해 여전히 많은 제한이 있다. 간단히 말해 LLM은 지금보다 훨씬 더 안정적이어야 하고 훨씬 더 빨라야 한다. 아직 갈 길이 멀지만, 해결책은 존재하며 이를 위해 현재 활발한 작업이 이뤄지고 있다. 주요 성과를 정리하면 다음과 같다.

지연과 실시간 제약 
운전 시 안전과 직결되는 의사 결정은 1초 이내에 내려져야 한다. 그러나 데이터센터에서 실행되는 최신 LLM의 경우 10초 이상까지 걸리기도 한다. 이 문제에 대한 한 가지 해결책은 차량 내 컴퓨팅으로 데이터센터 처리를 보완하는 하이브리드 클라우드 아키텍처다. 대규모 모델을 차량에 탑재 가능할 정도로 작고 빠른 형태로 압축한 전용 LLM도 있다. 이미 대규모 모델 최적화 부분에서는 비약적으로 개선되고 있다. 미스트랄 7B(Mistral 7B) 라마 2 7B(Llama 2 7B)는 훨씬 더 적은 매개변수(7억 개)로 GPT-3.5(1,750억 개)와 대등한 성능을 보였다. 무어의 법칙과 지속적인 최적화에 따라 이러한 모델이 엣지로 전환되는 속도는 더 빨라질 것이다. 

환각 
대규모 언어 모델은 상관관계를 기반으로 추론하지만 특정 시나리오에서 모든 상관관계가 유효한 것은 아니다. 예를 들어 교차로에 서 있는 사람은 정지(보행자), 통과(교통 경찰), 또는 서행(도로 건설 작업자)을 의미할 수 있다. 양의 상관관계가 항상 정답을 제공하지는 않는다. 모델이 현실을 반영하지 않는 결과를 도출할 경우 이를 "환각(hallucination)"이라고 한다. 

인간 피드백을 사용한 강화 학습(RLHF)은 이런 종류의 복잡한 주행 시나리오를 이해하기 위해 인간의 피드백에 모델을 맞춤으로써 문제에 대한 잠재적 해결책을 제시한다. 고품질의 데이터를 사용하면 GPT-4에 비해 20배 더 적은 매개변수를 사용하는 라마 2 70B와 같은 비교적 작은 모델도 GPT-4와 대등한 성능을 낸다. 참고로 라마 2 70B는 700억 개, GPT-4는 1조 7,000억 개다. 더 높은 데이터 품질을 더 쉽게 확장할 수 있도록 하는 연구 프로젝트도 있다. 예를 들어 오픈챗(OpenChat) 프레임워크는 비용이 많이 드는 사람에 의한 선호도 레이블 지정 작업 없이 성능을 향상하는 강화 학습 미세 조정(RLFT)과 같은 새로운 기술을 활용한다. 

새로운 긴 꼬리 
언어 모델에 "모든 것"이 코드로 포함돼 있지만 예를 들어 도로공사 중인 복잡한 교차로를 지나갈 수 있는 기능과 같이 모든 주행 개념을 다루지는 못한다. 한 가지 잠재적인 해결책은 모델에 이 같은 더 세밀한 개념을 포함할 수 있는 독점적인 긴 주행 데이터 시퀀스에 모델을 노출하는 방법이다. 한 예로 리플릿(Replit)은 자체 사용자 층에서 확보한 독점적인 코딩 데이터를 사용한 미세 조정을 통해 코드 생성 툴을 지속적으로 개선해서 코드 라마 7B(Code Llama 7B)와 같은 대규모 모델보다 더 높은 성능을 발휘하고 있다. 
 

자율 주행의 새로운 미래 

자율 주행은 아직 주류 기술로 부상하지 못했다. 현재 극소수의 차량이 가장 복잡한 도심 환경에 대처하기 위해 씨름하고 있을 뿐이다. 대규모 모델은 자율 주행 모델을 개발하는 방법에 변화를 일으키고 있으며, 궁극적으로는 자율 주행을 혁신해서 이 기술을 일상적인 운전자에게 제공하는 데 필요한 안전성과 규모를 제공하게 될 것이다. 

 


원문보기:
“챗GPT가 스스로 운전한다?” 자율주행과 LLM의 결합 현주소 - ITWorld Korea

 

“챗GPT가 스스로 운전한다?” 자율주행과 LLM의 결합 현주소

AI가 부상하면서 AI 모델의 크기도 커졌다. 이제는 100억 개의 매개변수를 사용하는 하나의 범용 모델이 다수의 작업을 해결하는 데 있어 탁월

www.itworld.co.kr

 


데이터 관리 허점이 AI 성공 위협한다 : 인포매티카 리서치

기업의 생성형 AI 도입이 본격화되고 있다. 인포매티카의 조사에 따르면, 2023년 10월 현재 이미 생성형 AI를 비즈니스 프로세스에 통합한 기업이 절반한 가까운 45%로 나타났다. 향후 2년 내에 생성형 AI를 도입할 계획이라는 응답 36%를 포함해 54%가 도입을 진행 중이거나 고려하고 있는 것으로 나타났다. 
 


하지만 기업의 생성형 AI 도입이 순조롭지만은 않은 것으로 나타났다. 생성형 AI 도입 과정에서 장애를 만났다는 응답이 무려 99%였다. 아무런 장애없이 AI를 구현한 기업은 거의 없다고 해도 과언이 아니다. 가장 큰 도전과제는 42%의 응답률을 기록한 데이터 품질과 40% 응답률의 데이터 프라이버시 및 보호였다. AI만의 독특한 과제도 큰 장애물인데, AI 윤리(38%), LLM 교육 및 미세 조정을 위한 전문 데이터의 양(38%), AI 거버넌스(36%) 등이었다. 

이번 조사에 따르면, AI에 대한 관심이 높아지면서 기업의 데이터 전략도 조정되고 있다. 인포매티카에 따르면, 작년 조사에서 기업 데이터 전략은 초점은 데이터 및 데이터 프로세스 거버넌스 개선에 맞춰져 있었다. 하지만 올해 조사에서 데이터 전략의 우선순위는 생성형 AI에 적합한 안정적이고 일관된 데이터를 제공하는 것과 데이터 기반 문화 및 데이터 기술(각각 39%)을 촉진하는 것이었다.

이런 결과를 고려할 때, 생성형 AI에 대한 관심이 높아지면서 데이터 관리에 대한 투자가 증가하는 것은 당연한 일이다. 응답자들은 데이터 관리에 더 많은 투자가 필요하다는 데 동의했는데, 주로 데이터 보호 및 보안, 데이터 품질 및 데이터 통합 가시성, 데이터 통합 및 처리에 투자해야 한다고 답했다.

한편, 데이터 파편화와 복잡성 문제는 2024년에도 계속되고, 심지어 증가할 것으로 보인다. 기업의 41%는 이미 1,000개 이상의 데이터 소스를 사용하고 있으며, 79%는 올해도 데이터 소스의 수가 계속 증가할 것이라고 답했다.

 


원문보기:
데이터 관리 허점이 AI 성공 위협한다 : 인포매티카 리서치 - ITWorld Korea

 

데이터 관리 허점이 AI 성공 위협한다 : 인포매티카 리서치

기업의 생성형 AI 도입이 본격화되고 있다. 인포매티카의 조사에 따르면, 2023년 10월 현재 이미 생성형 AI를 비즈니스 프로세스에 통합한

www.itworld.co.kr

 


“2026년까지 신규 디지털 인프라 80%가 구독 서비스로 운영” 에퀴닉스

 

GXI 2024 리포트에 따르면, IT 의사결정권자는 지속적으로 증가하는 AI, 5G, 엣지 컴퓨팅 등 고밀도 데이터 기술 수요를 충족하기 위해 점점 더 서버, 라우터, 스토리지 어레이 등 물리적 장비 구매에서 벗어나 유연한 구독 기반 모델을 선호하고 있다고 예측한다.

자본 지출(CAPEX)에서 운영 비용(OPEX)로의 전환은 멀티클라우드 도입으로 인해 시작됐으나, 현재는 모든 인프라 및 엣지에서 표준으로 거듭났다. 이를 통해 기업은 어디에서든 인프라를 설계시 높은 민첩성을 확보하고 가장 효율적인 기술에 접근할 수 있다.

에퀴닉스 디지털 전환 & 세그먼트 부문 부사장인 스티브 매든은 “불필요한 IT 하드웨어 장비를 구매하던 기존의 조달 프로세스는 점점 더 기업 경쟁력에 단점으로 작용하고 있다”라며 “특히 GPU 기술과 같이 하드웨어 혁신 속도는 증가하고 있으며 가격 대 성능 비율 및 인프라 효율성에 더욱 압력을 가하고 있다”라고 말했다. 

보고서에 따르면, 글로벌 상호연결 대역폭은 2026년까지 34%의 연평균 성장률(CAGR)을 기록해 초당 33,578테라비트(Tbps)에 달할 것으로 예상된다. 아태지역은 전 세계 상호연결 대역폭의 28%를 차지하며, 2026년까지 35%의 CAGR을 바탕으로 9,283Tbps를 기록할 것으로 보인다. 

기업은 두 배 많은 위치에서 30% 많은 비즈니스 파트너와 연결하고 있다. 엣지 인프라는 가장 높은 성장률을 기록했으며, 2026년까지 코어 비즈니스 대비 두 배 이상 빠른 속도로 확장할 것으로 예상된다.

 


원문보기:
“2026년까지 신규 디지털 인프라 80%가 구독 서비스로 운영” 에퀴닉스 - ITWorld Korea

 


'ITNews' 카테고리의 다른 글

[ITNews] 2024년 2월 셋째 주  (0) 2024.02.20
[ITNews] 2024년 2월 둘째 주  (1) 2024.02.12
[ITNews] 2024년 1월 마지막 주  (3) 2024.01.29
[ITNews] 2024년 1월 넷째 주  (2) 2024.01.24
[ITNews] 2024년 1월 셋째 주  (0) 2024.01.17