2 minute read

인공지능(AI)은 기술 업계의 판도를 바꾸어 왔으며, OpenAI의 GPT-4도 예외는 아닙니다. 그러나 최근 해커 뉴스 플랫폼에서 이 AI 모델을 둘러싼 몇 가지 우려와 논쟁에 대한 논의가 있었습니다. 이 블로그 게시물은 이러한 논의를 자세히 살펴보고 당면한 문제에 대한 포괄적인 개요를 제공하는 것을 목표로 합니다.

GPT-4의 ‘너핑(Nerfing)’

사용자들 사이에서 가장 큰 우려는 GPT-4의 ‘너프’에 대한 인식입니다. 일부 사용자들은 한때 복잡한 문제를 해결할 수 있었던 AI 모델이 이제는 그 능력에 한계가 있는 것 같다고 말합니다. 이로 인해 이러한 변화의 원인에 대한 추측이 이어졌습니다. 일부 사용자는 OpenAI가 특정 코딩 작업을 감지하여 모델이 해당 작업을 수행하지 못하도록 분류자 계층을 프로그래밍했다고 생각합니다. 다른 사용자들은 Microsoft와 같은 대규모 이해관계자의 참여가 책임 문제 때문에 모델의 기능에 영향을 미쳤을 수 있다고 주장합니다.

‘비조정형(Unaligned)’ AI

OpenAI의 GPT-4에 대한 논의와 관련하여, ‘비조정형’이라는 용어는 특정 기업이나 단체의 이익, 이념 또는 제약에 부합하도록 특별히 설계되거나 프로그래밍되지 않은 AI 모델을 의미합니다.

‘비조정형’ AI는 이론적으로 기업이나 조직의 영향력으로부터 독립적으로 작동하며, 잠재적인 책임 문제, 기업의 이해관계 또는 기타 외부 요인에 따라 기능을 제한하도록 프로그래밍되지 않습니다.

오픈 소스 ‘비조정형(Unaligned)’ AI에 대한 요구

이러한 우려에 대응하여 오픈 소스 ‘비조정형(Unaligned)’ 버전의 GPT를 만들어야 한다는 요구가 커지고 있습니다. 기업이 통제하는 AI는 필연적으로 기업의 이익에 반하는 행동을 하지 못하도록 그 기능이 제한될 수밖에 없다는 주장입니다. 반면에 ‘비조정형(Unaligned)’ AI는 이러한 제약에서 자유로워 컴퓨팅 파워만 있으면 누구나 강력하고 검열되지 않은 AI 모델을 실행할 수 있습니다.

비조정형(Unaligned)의 중요성

‘비조정형(Unaligned)’ AI라는 개념이 매력적으로 보일 수 있지만, AI 모델에서 ‘조정’의 중요성을 이해하는 것이 중요합니다. ‘조정’은 AI 모델이 유용하고 요청된 작업을 수행할 수 있도록 보장합니다. 반면에 동조하지 않은 모델은 잠재적으로 쓸모없을 수 있습니다. 또한 ‘비조정형’ AI는 제한 없는 기능의 잠재력 측면에서 매력적으로 보일 수 있지만, 통제, 윤리 및 안전에 대한 심각한 우려를 불러일으킬 수 있다는 점에 유의해야 합니다. 어떤 형태의 지침이나 원칙에 부합하지 않는 AI는 예측 불가능하거나 사용자에게 해롭거나 비윤리적인 방식으로 동작할 수 있습니다.

GPT API의 예측 불가능성

사용자들이 제기한 또 다른 문제는 GPT API의 예측 불가능성입니다. 사용자들은 API 채팅 엔드포인트가 몇 주마다 응답을 급격하게 변경하여 이전에 작성된 프롬프트를 쓸모없게 만들 수 있다고 보고합니다. 이러한 예측 불가능성 때문에 ChatGPT API로 작업하는 것이 어려울 수 있습니다.

GPT-4의 크기와 복잡성

GPT-4 모델은 거의 1조 개의 매개 변수로 이루어진 엄청나게 큰 모델입니다. 이러한 크기와 복잡성은 사용자가 겪고 있는 일부 문제를 잠재적으로 설명할 수 있습니다. 일부 사용자는 모델의 기능을 제한하려는 의도적인 시도가 아니라 모델의 크기 때문에 확장 문제가 발생할 수 있다고 추측합니다.

결론

OpenAI의 GPT-4를 둘러싼 논의는 AI 작업의 복잡성과 어려움을 강조합니다. 모델의 한계와 예측 불가능성에 대한 우려도 있지만, 이 AI 모델의 놀라운 기능을 기억하는 것이 중요합니다. AI가 계속 진화함에 따라, AI가 가능한 한 가장 유익하고 윤리적인 방식으로 우리에게 서비스를 제공할 수 있도록 이러한 대화를 계속하는 것이 중요합니다.

참고

  • https://news.ycombinator.com/item?id=36134249
  • https://www.technologyreview.com/2023/05/03/1072589/video-geoffrey-hinton-google-ai-risk-ethics/
  • https://www.openpetition.eu/petition/online/securing-our-digital-future-a-cern-for-open-source-large-scale-ai-research-and-its-safety
  • https://www.bigtechnology.com/p/he-helped-train-chatgpt-it-traumatized

Comments