애드파인더 데이터 상관관계 연구실적 결과

인공지능 성능향상에 대한, 저희 애드파인더팀의 다양한 연구결과를 투명하게 보고합니다.

1-1-1-800x533

병원 인공지능 성능향상을 위한 대규모 프로젝트 그리고 대형 AI기업에서도 모르는 비밀을 풀다

우리는 각 인공지능 성능 향상에 중점을 두고 연구를 진행했습니다. 기본적으로 파이썬과 자바스크립트를 이용하여 여러 AI 엔진 (라마1,2, GPT3,3.5, Davinch, 팜2) 및 데이터 관리 도구들과 이미지처리 모델 (SQL, RDS, 스테이블 디퓨전, Dalle1,2)를 활용했습니다. 우리의 목적은 데이터의 양과 질이 AI 성능에 미치는 영향을 규명하고, 이를 통해 병원 마케팅 분야에서 뛰어난 결과와 편의성을 제공하는 것이었습니다.

gp
la
pa
st

임베딩과 파인튜닝에 따른 결과물 출력값의 상관관계

우리의 연구는 하룹 6세대 프로젝트가 시작된 22년 7월부터 시작하여, 크게 두 단계로 구성되었습니다. 첫째, 워드프레스를 통해 테스트테마와 각 필요한 기능들을 function 함수 또는 각자 재택근무자들은 플러그인방식으로 개발한 뒤, 각자 결과물을 모두가 테스트 해보며, 데이터 수집 및 처리 시스템을 구축했습니다. 그런 다음, 다양한 AI 엔진을 활용하여 모델을 훈련시키고, 테스트하며, 최적화했습니다. 특히, 가장 많은 시간을 할애한 부분은 모델들의 임베딩과 파인튜닝의 상관관계를 찾는 일이였습니다.

결과적으로, 데이터의 양이 증가할수록 모델의 성능이 향상되었으며, 특히 데이터가 잘 정돈되어 있을 때 뛰어난 결과를 보여주었습니다. 그러나 이러한 향상은 어느 정도까지만 이루어졌으며, 전문가들조차도 그 이유를 정확하게 설명하지 못하고 있습니다. 그럼에도 불구하고, 우리의 연구는 병원 마케팅 분야에서 우수한 결과성능과 편의성을 제공할 수 있다는 것을 보여주었습니다.

13

아니, 학습 데이터 40만개가 증발했다고?!

저희가 극초반에는 프롬프트로 구성을 하다가, 이에 수많은 한계를 느끼고, 처음 도전한 것이 바로 임베딩 방식이였습니다. 이는 LLM모델 개발기업 자체에도 많이 이용할 것이라 생각합니다. 벡터데이터를 받아와서 결과값을 개선하는 것이죠. 확실한 것은 단순 프롬프트 구성으로 진행할 때 보다는, 엄청난 성능 향상이 있었습니다. 만약 이때 완벽히 성공했다면, 저희 AI애드파인더 출시가 ChatGPT출시전에 출시했었을 정도로 엄청나게 앞당겨졌을 것입니다. 하지만 임베딩 모델의 한계점이 있었습니다. 학습량이 많아질 수록 결과값이 나빠지는 점이였습니다. 그 당시 저희는 회사에서 엄청난 교육 투자금을 지원하여 다양한 교육을 알아보고, 강사초빙등도 몇 회 진행하였으나, 머신러닝 전문가도, 딥러닝 전문가도, 생각보다 AI를 잘 이해하는 사람들이 없었다는게 너무 신기했었고, 이미 저희 수준이 국내에서 아니 세계적으로 볼때도 상당히 높은 수준이라는 것을 그때 살짝 느끼고 있긴 하였습니다.

그리고 그렇게 23년이 되었고, 3월초 갑자기 저희가 구성한 약 40만개의 임베딩 데이터가 전부 없어져버리는 사태가 발생하였습니다. 아마 이때 파인콘을 이용해서 벡테데이터를 구축한 다른 기업들도 난리가 났었을 것입니다. 그야말로 아비규환 이였습니다.

OpenAI GPT4 초대 그리고 Microsoft Azure 초대

23년 3월은 그야말로 저희 애드파인더팀은 엄청난 역대급 비상이였습니다. 그동안 매우 고퀄리티로 구성하였던 데이터들이 한순간에 날아갔으니 말이죠. 그리고 저희들의 엄청난 압박(?)이 통했던 것일까요, 약 10일뒤 다행히 회사 차원에서 복구를 성공했다는 연락을 받았고, 다시 저희는 계속 연구를 이어갔습니다. 근데 그리고 몇 일 뒤 누가 장난이라도 치듯이 또 엄청난 일이 벌어집니다. 바로 GPT4가 출시되었다는 소식이였죠. 그리고 저희는 웨이트를 걸어놓고, 그로부터 한달 뒤 저희는 OpenAI에 초대를 받고, GPT4 조직구성 아이디 및 개발권한을 얻었습니다. 동시에 Microsoft 애져에서도 초대를 받았죠.

ai
ais

파인튜닝 미세조정으로 방향성을 확장하다

저희는 임베딩모델과 파인튜닝 모델의 번갈아가면서, 다양한 AI들을 다루고 구성하는 능력이 생기기 시작했습니다. 이때까지만해도 사실 저희가 다차원 모델을 개발하여 성능을 최적화 시킬거란 상상도 못했던 시절이였죠. 그리고 저희는 임베딩모델에서 파인튜닝 미세조정 방식에 더 승부를 걸기 시작했습니다. 왜냐면 오히려 임베딩은 데이터가 많을수록 저희 기준에서는 성능이 떨어지는 일들이 빈번히 발생했었기 때문입니다. 하지만 성능이 낮은것은 절대 아닙니다. 오히려 병원마케팅이나 마케팅노하우 로직등에 구성에서는 ChatGPT4 수준보다 훨씬 더 똑똑하죠. 임베딩은 각 데이터당 적정량(이건 저희만의 노하우이므로 상세 공개는 하지 않겠습니다.) 그리고 다차원모델 방식 이전에 임베딩을 통한 다차원 인덱스방식(이 역시 구성을 어떤식으로 처리하여 연결해야 성능이 말도 안되게 좋아지는지에 대한 방식은 저희만에 노하우이므로 이런 디테일까지는 공개 하지 않겠습니다)으로 말도 안되는 성능향상을 만들어냈습니다.

하지만 저희는 거의 AGI급을 원했고, 가능할 수도 있겠다 라는 생각이였습니다. 그리하여 결국 파인튜닝과 미세조정에 더욱 많은 테스트를 진행하였죠. 초창기 1만개 테스트시 이상한 말만 반복하는 바보같기도 했습니다. 하지만 어느부분에서는 말을 매우 잘했기에 그걸 보면서, 각종 병원별 상담원같은것을 만들기 매우 수월하겠다라는 생각도 들었었습니다. 그리고 어느순간부터는 정말 말을 잘하기 시작했습니다. 특정 분야에서는 충분히 사용해도 될 정도로 말을 잘했죠. 그리고 저희는 이게 이때만해도 수량인줄 알았습니다. 학습비용보다 성공만 시키면 대박일테니, 저희팀도 그렇고 회사도 그렇고, 적극적으로 투자를 하였죠. 하지만 아쉽게도 성능이 개선되는 부분도 있었으나 기본모델보다 더 멍청한 부분들도 있었습니다.

그리고 이젠 데이터 질을 다듬어서 엄선하여 학습시켜봤습니다. 그러니 또 놀라운 결과가 나왔죠. 특정 패턴과 방식으로 학습시에 엄청나게 인간보다 더 자연스러워지기 시작했다는 것입니다. 솔직히 아직도 정확한 원리와 이유는 모릅니다.

이를 위해서 카이스트 교수님측에도 연락해보고, 유명 AI기업에 개발자분들과도 자리를 마련하여 소통하여봤으나, 대부분 전세계적으로 이 현상을 모른다고 하셨죠. 즉 일정 갯수 이상 넘어가거나 갑자기 똑똑해진다는것은 정확한 원리를 아는 사람은 전세계에 아무도 없으며, 이것은 아직 딥러닝에 풀어야 하는 숙제라고 하셨습니다. 어찌되었든 애드파인더는 그 구간을 뚫어내었고, 결국은 성공했다는것에 큰 의의가 있었습니다.

결국 전문 분야의 데이터 질과 양

AI도 마치, 블로그로직같은 느낌이였다고 할까요. 결국 데이터수량도 중요했지만 반대로 질도 매우 중요했습니다. 즉 작은 데이터로 제대로 잘 다듬어 구성한다면 성능이 매우 좋아졌죠. 그렇다면 원리는 아무도 모르지만 확실한것은 생겼습니다. 저희가 찾은 우수한 데이터 질을 만드는 방식과 그리고 그러한 방식으로 수량까지 일정부분을 뛰어넘으면 정말 놀랄만한 일이 벌어지지 않을까? 그리고 그 예측은 적중하였습니다. 또한 이러한 경험들로 인해 다양한 모델들끼리 서로 병원이나 원장님 또는 해당 병원 시술이나 수술에 대해 분석하고 파악하고 소통하는 방식으로 까지 진화할 수 있었습니다. 지금 이순간도 저희 애드파인더는 병원분야에 모든 고차원 데이터를 더욱 학습하여 병원장님 및 병원관계자분들께서 사용하기 쉽게 AI를 이용하실 수 있도록 최선을 다하겠습니다.

bictors