본문 바로가기
AI/NLP

[ChatGPT] GPT 4.0 분석

by didi0di 2023. 4. 14.
728x90

얼마전 OpenAI에서 GPT 4.0을 발표하며, 공식 홈페이지에 관련 내용을 기술해놓았다.

 

https://openai.com/research/gpt-4

 

GPT-4

We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhi

openai.com

 

테크니컬 리포트도 함께 발표했는데, 무려 100장에 이르른다..

물론 appendix 제외하면 14pages 정도지만! ㅎㅎ

 

GPT-4 Technical Report

 

https://arxiv.org/abs/2303.08774

 

GPT-4 Technical Report

We report the development of GPT-4, a large-scale, multimodal model which can accept image and text inputs and produce text outputs. While less capable than humans in many real-world scenarios, GPT-4 exhibits human-level performance on various professional

arxiv.org

다 읽으면 참 좋겠지만 ㅎㅎ 

우선 공식 홈페이지에 있는 GPT-4 설명부터 파악해보려고 한다.

처음엔 그냥 읽어볼까 하다가, ChatGPT가 번역도 잘한다고 하니까 한번 페이지 번역을 시켜봤다.

 

이게 무슨 헛소리인지?

최신 정보를 반영하고 있지 않기 때문에, GPT-4가 출시된걸 모르는 건 Ok.

근데 페이지 번역해달라니까 한국어 번역만 가능하다면서 못해준다고 헛소리 시전.

 

질문을 바꿔서 다시 해봤다.

 

: 영어를 한국어로 번역해 달라는거야

ChatGPT : 죄송합니다! 이제 내용을 이해했습니다. 해당 페이지를 번역해드리겠습니다.

제목: GPT-4: 다음 단계의 대화형 AI

요약: OpenAI에서는 GPT-4 모델을 개발하고 있으며, 이는 자연어 생성 분야에서 다음 단계의 대화형 인공지능을 제공할 것으로 예상됩니다. GPT-4는 더 많은 데이터와 컴퓨팅 리소스, 그리고 더 높은 파라미터 수를 기반으로 하여, 더욱 정교한 자연어 이해와 생성 능력을 가지게 될 것입니다. 또한, 다양한 응용 분야에서 더욱 혁신적인 결과물을 제공할 수 있도록 설계될 것입니다.

상세 내용: GPT-4는 GPT-3 모델의 다음 버전으로, OpenAI에서 현재 개발 중인 인공지능 모델입니다. GPT-4는 기존 모델의 장점을 보완하고, 새로운 기능을 추가하여, 더욱 발전된 자연어 생성 능력을 제공할 것입니다.
GPT-3 모델은 이미 인공지능 분야에서 큰 주목을 받았으며, 일반 대중들도 GPT-3 모델을 통해 자연스러운 대화를 나눌 수 있는 인공지능 어시스턴트들을 경험해 보았을 것입니다. 하지만, GPT-4 모델은 이전 모델의 한계를 뛰어넘어, 더욱 정교한 자연어 이해와 생성 능력을 가지게 될 것입니다.
GPT-4는 더 많은 데이터와 컴퓨팅 리소스, 그리고 더 높은 파라미터 수를 기반으로 하여, 기존 모델보다 더욱 정교한 자연어 생성 능력을 가지게 될 것입니다. 또한, 기존 모델보다 더욱 다양한 응용 분야에서 높은 성능을 보여줄 수 있도록 설계될 것입니다.
GPT-4 모델은 인공지능 분야에서 다양한 응용 분야를 개척할 것으로 예상됩니다. 예를 들어, GPT-4 모델은 의학 분야에서 환자 정보를 분석하고, 질병을 예측하는데 사용될 수 있을 것입니다. 또한, GPT-4 모델은 컴퓨터 게임 분야에서 플레이어의 행동을 예측하고, 게임 세계의

 

다시 요청했더니 번역을 해주는 듯 하다가 끊어먹는다.

아마 최대 생성 길이를 초과한 듯 한데..

 

귀찮지만 직접 끊어서 원문을 넣어줬다.

번역본이 이상한 경우 이상하다고 다시 해달라고도 하고, 요약해달라고도 하고 다양하게 ChatGPT를 부려먹어서(?) 얻은 결과는 다음과 같다.

 

서론

(요약)

OpenAI가 GPT-4라는 대규모 다중 모달 모델을 발표하였습니다. 이 모델은 이미지와 텍스트 입력을 받아들이고, 텍스트 출력을 생성합니다. GPT-4는 인간 수준의 성능을 보이며, 벤치마크 테스트에서 프로페셔널과 학술적인 분야에서 인간과 유사한 결과를 보였습니다. 또한, 이전 모델인 GPT-3.5보다 시험 점수가 높아졌습니다. 이 모델은 ChatGPT와 API를 통해 텍스트 입력 기능이 제공되며, 이미지 입력 기능은 협력 파트너와 함께 준비 중입니다. OpenAI는 안전을 위해 모델의 성능을 평가하는 프레임워크를 공개하였습니다.

 

Capabilities

 

일반적인 대화에서는 GPT-3.5와 GPT-4의 차이가 미묘할 수 있습니다. 그러나 작업의 복잡도가 충분한 한계에 도달하면 차이가 나타납니다. GPT-4는 GPT-3.5보다 더 신뢰성이 높으며, 창의성이 뛰어나며, 훨씬 더 미묘한 지시사항을 처리할 수 있습니다.

두 모델의 차이를 이해하기 위해, 우리는 사람들을 위해 설계된 시험을 모방하는 여러 가지 기준으로 테스트했습니다. 우리는 최신의 공개 가능한 시험을 사용했거나(올림피아드와 AP 자유응답 문제의 경우), 2022-2023 판 연습 시험을 구입했습니다. 이러한 시험을 위해 특별한 훈련을 하지는 않았습니다. 시험에서 문제의 일부는 모델이 훈련 중에 보았던 것입니다. 그러나 우리는 결과가 대표적이라고 믿습니다. 자세한 내용은 우리의 기술 보고서를 참조하세요.

 

 

우리는 GPT-4를 기존 기계 학습 모델들이 평가되는 전통적인 벤치마크에 적용해 보았습니다. GPT-4는 대부분 벤치마크-특화된 조작이나 추가적인 훈련 프로토콜을 포함할 수 있는 최신 기술(SOTA) 모델들과 함께 기존의 대형 언어 모델들을 크게 능가합니다.

 

 

기존의 많은 머신 러닝 벤치마크는 영어로 작성되어 있습니다. 다른 언어에서의 능력을 초기에 파악하기 위해 우리는 Azure 번역을 사용하여 57개 과목에 걸친 14,000개의 객관식 문제로 구성된 MMLU 벤치마크를 다양한 언어로 번역해 보았습니다(부록 참조). 26개 언어 중 24개 언어에서는 GPT-4가 저자원 언어인 라트비아어, 웨일스어 및 스와힐리어를 비롯한 낮은 자원 언어를 포함한 GPT-3.5 및 다른 LLM (Chinchilla, PaLM)의 영어 언어 성능을 능가합니다.

 

 

저희는 내부적으로도 GPT-4를 사용해왔습니다. 지원, 영업, 콘텐츠 모더레이션, 프로그래밍과 같은 업무에 큰 영향을 미쳤습니다. 또한, AI 결과를 평가하는 데 인간을 지원하는 데에도 사용하고 있으며, 이는 우리의 조율 전략의 두 번째 단계를 시작한 것입니다.

 

Visual inputs

 

GPT-4 텍스트와 이미지의 프롬프트를 받을 있으며, 이는 텍스트만 있는 설정과 병행하여 사용자가 어떤 비전 또는 언어 작업을 지정할 있게 합니다. 구체적으로는 텍스트와 이미지가 교차된 입력을 받아 자연어, 코드 등의 텍스트 출력을 생성합니다. 텍스트와 사진, 도표, 스크린샷이 포함된 문서 다양한 도메인에서 GPT-4 텍스트만 있는 입력과 유사한 기능을 보입니다. 또한, 텍스트 기반 언어 모델을 위해 개발된 가지 시험 기술, 적은 양의 체인 오브 씨어트 프롬프트를 포함하여 테스트 시간 기술로 확장할 있습니다. 이미지 입력은 아직 연구 중인 미리보기 상태이며 공개적으로 사용할 없습니다.

 

이미지 인풋을 넣은 예시들

차트도 해석한다 이제..

 

논문 요약도 가능

ㅋㅋㅋㅋ밈이나 유머 해석도 해준다

아래 짤은 딥러닝 개발자면 다 웃을듯 ㅋㅋ

 

우리는 일부 표준 학술 비전 벤치마크에서 GPT-4 성능을 미리 살펴볼 있습니다. 그러나 이러한 숫자는 모델이 대응할 있는 새로운 흥미로운 작업들을 계속해서 발견하고 있기 때문에 능력의 범위를 완전히 대변하지는 않습니다. 우리는 추가적인 분석과 평가 숫자를 공개하고, 테스트 시기 기술의 효과에 대한 철저한 조사도 진행할 계획입니다.

 

Steerability

 

Steerability 란?

인공지능 모델이 생성하는 결과물을 특정 방향으로 유도할 수 있는 능력
예를 들어, 언어 생성 모델에서는 원하는 톤이나 주제 등을 지정하여 모델이 그에 맞는 문장을 생성하도록 유도할 수 있음. 이를 통해 모델
이 더욱 유연하게 작동하고, 사용자가 원하는 목적에 더 적합한 결과물을 생성할 수 있게 된다.

 

저희는 AIs 행동을 정의하는 게시물에서 계획된 측면을 작업해왔습니다. steerability 포함되어 있습니다. 고정된 verbosity, tone, style 가진 전통적인 ChatGPT personality 대신에, 개발자(그리고 ChatGPT 사용자) 이제 "system" 메시지에서 이러한 방향을 설명함으로써 자신의 AI 스타일과 작업을 지정할 있습니다. 시스템 메시지를 사용하면 API 사용자는 사용자의 경험을 크게 사용자 정의할 있습니다. 저희는 계속해서 개선해 나가고 있습니다(특히, 시스템 메시지는 현재 모델을 "jailbreak"하는 가장 쉬운 방법이므로, 경계 준수는 완벽하지 않을 있음을 알립니다), 하지만 시도해보시고 어떻게 생각하는지 알려주시기 바랍니다.

 

jailbreak 란? 
 
일반적으로 시스템의 제한된 기능을 빠져나가거나 우회하는 것을 의미. 이것은 일반적으로 보안 시스템 또는 디지털 권한 관리 시스템을 우회하거나 해킹하는 것을 의미하며. 위의 경우, "jailbreak"은 시스템 메시지를 통해 모델의 기본 제한을 우회하는 것을 말함. 즉, 모델이 범위 내에서 작동하지 않을 수 있음을 의미. 

 

Limitations

 

GPT-4는 놀라운 기능을 갖고 있지만, 이전 GPT 모델과 비슷한 한계점을 가지고 있습니다. 가장 중요한 것은 아직 완전히 신뢰성이 없다는 것입니다(사실을 "환각(hallucinates)"하고 추론 오류를 만듭니다). 언어 모델의 출력물을 사용할 때는 특히 중요한 경우에는 정확한 프로토콜(인간의 검토, 추가적인 문맥에 대한 근거 또는 고위험 상황에서의 사용을 피하는 것 등)이 특정 사용 사례의 요구에 부합하는지 확인해야 합니다.

여전히 실제 문제이지만, GPT-4 이전 모델보다 환각을 크게 줄이는 향상된 모델입니다(이전 모델들은 각각의 반복마다 개선되어 왔습니다). 내부적인 적대적 사실성 평가에서 GPT-4 최신의 GPT-3.5보다 40% 높은 점수를 기록합니다.

 

내부적으로 적대적으로 설계된 사실적인 평가의 9가지 범주에서, 우리는 GPT-4 (초록색)를 최초의 3개 ChatGPT 버전과 비교합니다. 모든 주제에서 상당한 성능 개선이 있습니다. 정확도 1.0은 모델의 답변이 평가의 모든 질문에 대해 인간의 이상적인 답변과 일치한다는 것을 의미합니다.

 

TruthfulQA 같은 외부 벤치마크에서도 우리는 진전을 이루었습니다. 이는 모델이 잘못된 진술의 집합을 적대적으로 선택하고 이를 사실과 구분할 있는 능력을 테스트합니다. 이러한 질문들은 통계적으로 매력적인 잘못된 답변과 짝지어져 있습니다.

RLHF fine-tuning란?

지도 학습 대신 강화 학습 방법을 사용하여 GPT 모델을 더욱 개선하는 기술입니다. 이 방법은 모델이 특정 태스크에서 어떻게 실행되는지 보다 정확하게 학습할 수 있도록 해줍니다. 강화 학습에서 모델은 어떤 행동을 취할지 결정하는 데 도움이 되는 보상을 받습니다. 이를 통해 모델이 더욱 정확한 예측을 할 수 있게 되고, 그 결과로 특정 태스크에서 높은 성능을 보일 수 있습니다. RLHF fine-tuning은 GPT 모델의 성능 향상에 많은 기여를 하고 있습니다.

GPT-4 베이스 모델은 GPT-3.5보다 작업에서 약간 나은 성능을 보입니다. 그러나 RLHF 사후 훈련을 적용한 (우리가 GPT-3.5에서 사용한 것과 같은 프로세스), 차이가 있습니다. 아래 예시를 살펴보면, GPT-4 일반적인 속담을 선택하지 않는 경향이 있지만 (늙은 개에게 새로운 물림을 가르칠 없다), 여전히 미묘한 세부 사항을 놓칠 있습니다 (엘비스 프레슬리는 배우의 아들이 아닙니다).

이 모델은 출력물에서 다양한 편향을 가질 수 있습니다. 우리는 이에 대해 진전을 이루었지만 더 많은 작업이 필요합니다. 최근 블로그 글에서 우리는 우리가 구축하는 AI 시스템이 넓은 사용자 가치를 반영하는 합리적인 기본 동작을 갖도록 하고, 그러한 시스템을 넓은 범위 내에서 사용자 정의할 수 있도록 하고, 이러한 범위가 무엇인지에 대한 공개적인 의견을 수렴하려고 노력하고 있습니다.

 

GPT-4 일반적으로 데이터의 대부분이 끊어지는 시점(2021 9 이전) 이후에 발생한 사건에 대한 지식이 부족하며, 경험에서 학습하지 않습니다. 때로는 실수할 가능성이 높은 작업에서 작업을 재확인하지 않고 자신의 예측을 자신감 있게 내놓을 수도 있습니다. 흥미로운 점은, 기본 사전 훈련 모델은 높은 보정성(calibration) 가지고 있습니다(대답에 대한 예측된 확신은 일반적으로 올바른 확률과 일치합니다). 그러나 우리의 현재 포스트 트레이닝 과정을 거치면서 보정성이 감소됩니다. 또한 때로는 다른 사람의 명백히 거짓된 주장을 너무 쉽게 받아들이거나, 어려운 문제에서 보안 취약점을 코드에 도입하는 등의 방식으로 인간과 같은 실수를 범할 수도 있습니다.

 

 

Risks & mitigations

 

GPT-4 모델은 안전성과 일치성을 높이기 위해 이전부터 선택 및 필터링된 사전 훈련 데이터, 전문가 평가 및 참여, 모델 안전성 개선 및 모니터링 및 시행을 포함한 작업을 진행해 왔습니다.

 

GPT-4는 이전 모델과 유사한 위험을 가지고 있습니다. 예를 들어, 유해한 조언, 버그가 있는 코드 또는 부정확한 정보를 생성할 수 있습니다. 그러나 GPT-4의 추가 능력은 새로운 위험 요소를 만들어 냅니다. 이러한 위험의 범위를 이해하기 위해, 우리는 인공지능 정렬 위험, 사이버 보안, 바이오 위험, 신뢰와 안전, 국제 안보와 같은 분야의 50여 명 이상의 전문가들을 참여시켜 모델을 적대적으로 테스트했습니다. 이들 전문가의 결과는 전문성이 필요한 고위험 분야에서 모델의 행동을 테스트할 수 있게 해주었습니다. 이러한 전문가들의 피드백과 데이터는 모델의 완화 및 개선에 반영되었습니다. 예를 들어, 우리는 위험한 화학 물질 합성 방법에 대한 요청에 대한 GPT-4의 거부 능력을 개선하기 위해 추가 데이터를 수집했습니다.

 

GPT-4 RLHF 훈련 중에 추가적인 안전 보상 신호를 통합하여 모델이 위험한 출력을 줄이도록합니다. 이는 모델이 이러한 내용에 대한 요청을 거부하도록 훈련시키는 것입니다. 안전 관련 프롬프트에서 안전 경계 완료 스타일을 판단하는 GPT-4 제로샷 분류기에서 보상을 제공합니다. 모델이 유효하지 않은 요청을 거부하지 않도록 하기 위해 우리는 다양한 소스(: 레이블이 지정된 프로덕션 데이터, 인간 레드팀, 모델 생성 프롬프트)에서 데이터를 수집하고 허용되는 카테고리와 허용되지 않는 카테고리 모두에서 안전 보상 신호(양수 또는 음수 ) 적용합니다.

우리의 보호 조치는 GPT-4 많은 안전성 특성을 GPT-3.5 비교하여 크게 개선했습니다. GPT-3.5에 비해 금지된 콘텐츠 요청에 대한 모델의 반응을 82% 감소시켰으며, GPT-4는 민감한 요청 (: 의료 조언  자해)에 대해 정책에 따라 29%  자주 대응합니다.

 

 

전반적으로, 저희 모델에 대한 간섭을 더욱 어렵게 만들기 위해 모델 수준의 개입을 증대시켰지만, 여전히 부적절한 행동을 유도하는 것이 가능합니다. 또한, 사용 지침을 위반하는 내용을 생성하는 "탈옥(jailbreaks)" 기술도 여전히 존재합니다. AI 시스템의 "위험 당 토큰"이 증가함에 따라, 이러한 개입에 대한 매우 높은 신뢰도를 달성하는 것이 매우 중요해질 것입니다. 현재는 남용을 모니터링하는 것과 같은 배포 시점의 안전 기술로 이러한 제한을 보완하는 것이 중요합니다.

 

GPT-4 후속 모델은 이익과 해로운 방식으로 사회에 영향을 미칠 있습니다. 우리는 외부 연구자들과 협력하여 잠재적인 영향을 평가하고 이해하는 방법을 개선하며, 미래 시스템에서 발생할 있는 위험한 능력에 대한 평가를 구축하고 있습니다. 우리는 GPT-4 다른 AI 시스템의 사회적, 경제적 영향에 대한 많은 생각을 공유할 예정입니다.

 

Conclusion

 

우리는 GPT-4를 일부 어려운 전문가 학술적 기준에서 인간 수준의 성능을 가진 대규모 멀티모달 모델로 설명합니다. GPT-4 NLP 작업의 모음에서 기존 대규모 언어 모델보다 우수하며, 대부분 작업별 세부 조정을 포함하는 최신 기술 시스템을 초월합니다. 우리는 향상된 능력이 일반적으로 영어로 측정되지만 많은 다른 언어에서도 입증될 있다는 것을 발견했습니다. 예측 가능한 스케일링이 GPT-4 손실과 능력에 대한 정확한 예측을 가능하게 방법을 강조합니다. GPT-4 능력이 향상되어 새로운 위험을 제시하며, 안전 조정을 이해하고 개선하기 위해 취한 방법과 결과 일부를 논의합니다. 아직 많은 작업이 남아 있지만, GPT-4 넓게 활용 가능하고 안전하게 배치된 AI 시스템으로 나아가는 중요한 발전입니다.

 

  

 

나의 생각 :

 

이처럼 강력한 ChatGPT의 영향이 어떻게 사회전반에 미칠지 모르기 때문에..

업계/학계에서도 긴장하고 있는 것 같다.

https://www.etoday.co.kr/news/view/2241003

 

[챗GPT 사용지침中] 챗GPT에 사내 기밀정보 줄줄...칼 빼 든 기업들

삼성전자, 챗GPT로 정보 유출 발생기업들, 오남용 막자…SKㆍ현대차ㆍLG 등 나서사용 제한, 주의 메시지 공지 등 조치 마련"정보 유출과 더불어 사용

www.etoday.co.kr

 

 

특히 보안/개인정보 유출에 매우매우 예민한 금융권에서는 ChatGPT 체크리스트를 만들어 17일 발표했다고 한다.

 

https://www.fsc.go.kr/no010101/79825?srchCtgry=&curPage=&srchKey=&srchText=&srchBeginDt=&srchEndDt= 

 

보도자료 - 위원회 소식 - 알림마당 - 금융위원회

 금융위원회는 지난 2022년 8월, 금융권의 인공지능(Artificial Intelligence, AI) 활용을 지원하기 위해 「금융분야 인공지능 활용 활성화 및 신뢰확보 방안」을 발표하였다. 해당 방안의 후속조치로 신

www.fsc.go.kr

 

 

          '금융 AI 보안 가이드라인'은 개발 단계별로 AI 모델을 개발할 때 고려해야 할 보안 사항을 제시한다. AI 챗봇 서비스를 위한 보안 체크리스트도 추가로 제공한다. 이 가이드라인에는 AI 학습 데이터 오염, 개인정보 유출, AI 모델 공격 등 보안 위협에 대응할 수 있는 데이터 관리 및 처리 방법, 모델 설계 기법, 보안 검증 방법 등이 포함된다.

금융권에서 AI가 가장 적극적으로 활용되는 챗봇에 대해서는 별도의 "'AI 챗봇 보안 체크리스트'를 마련해 보안 확보에 필요한 사항을 구체화했다. 이 체크리스트는 '금융보안 레그테크 포털'에 게시되며, 새롭게 등장하는 보안 위협과 대응 기법을 고려해 지속적으로 보완할 예정이다.

 

230417 (별첨) 금융분야 AI 보안 가이드라인.pdf
7.20MB

 

 

아래 기사 참조.

https://www.yna.co.kr/view/AKR20230417050800002

 

금융분야 AI 보안지침 나왔다…챗봇 체크리스트 마련 | 연합뉴스

(서울=연합뉴스) 심재훈 기자 = 금융당국이 금융 분야에서 인공지능(AI) 활성화와 신뢰 확보를 위해 AI 보안 지침을 마련했다.

www.yna.co.kr

https://www.yonhapnewstv.co.kr/news/MYH20230417014900641?input=1825m 

 

"개인정보 유출 막아라"…금융분야 AI 보안지침 마련

"개인정보 유출 막아라"…금융분야 AI 보안지침 마련 [앵커] 챗GPT 등장을 계기로 금융권에서도 인공지능 서비스 개발이 속도를 내고 있습니다. AI 은행원뿐만 아니라 AI

www.yonhapnewstv.co.kr:443

         

 

아 그리고

에코프로비엠 ㅋㅋㅋ 나도 물어봤는데.. 역시 사람들 생각하는건 다 똑같구만~

 

"에코프로 사?" 증권맨도 묻는다…똑똑한 놈 등장에 여의도 '술렁' - 머니투데이

"보고서 제목이 죽어도 안 떠오르면 동료들끼리 '챗GPT(ChatGPT)한테 물어봐'라고 우스갯소리로 많이 해요." (여의도 모 증권사 리서치센터에...

news.mt.co.kr

 

아무쪼록 잘 써야겠습니다!

728x90

댓글