딥시크의 의의: 일정 이하 성능은 더 적은 연산수로 가능하다
딥시크의 조건: 더 빡시게 만들어진 ai 학습용 자료
이해하기 편하게 말하자면
수능점수를 잘 받는 방법은 족집게 과외를 받고
특정한 공부법을 사용해서 공부하면
덜 공부해도 수능 대박이 납니다! 가 딥시크임
당연하지만 수능공부를 학자로 가기 위한 전단계 테스트로 보는
현행 ai 연구에서는
의미가 없진 않은데 이게 그렇게 엄청난 의미가 있는건 아님
족집게 과외와 공부법으로 수능 점수 잘받은 사람이
무조건 뛰어난 학자임을 증명할수도 없고
그리고 지금 ai 연구에서는 절대 안된다는 것까지 어느정도 증명됨
오히려 이후연구 빡세게 하는
칭와대 북경대 알리바바 등이 진짜 무섭게 서양이랑 경쟁하는 중임
스탠퍼드 대 칭와대 경쟁이나
알리바바의 중국인들 자료 “공산당식 합법” 긴빠이 대
구글의 미국인 자료 “자본주의식 합법” 긴빠이 대전
이런 게 지금 더 중국위기설의 진짜 의미에 해당함
진짜로 ai 자동영상 관해서는 openai sora가 압도적인데
0.5 소라 정도는 북경대나 칭와대 오픈소스모델도 가능하고 그럼
딥시크는 그렇게 뭐 인디팀이 만든거도 아니고
100억 위안 턱 내놓는 국내 ai 연구팀 중에 네이버랑 비비는 규모고
상업적으로 가치는 있늗데 알리바바에 좀 밀림
아 openai 이새끼들 인성 썩어빠진 파탄자인건 맞음
그건 네이버 ai팀에 물어보셔야….
사실 거기도 성과 꽤 많이 내긴 함 하이퍼클로바가 ㅈ은 아님
막줄이 핵심
뭐여 비추를 줄거면 반박을 하면서 비추를 주라고
그러니까
딥시크: 저수준에서 최적화 잘된거
진짜는 중국에서도 고수준의 AI 연구가 이뤄지고 있다는거
라는거 같음
걔네는 llm 아닌 쪽은 진심이고 연구성과 꽤 좋음
Llm 너무 늦게 들어가서 그만
클로드가 제일 나음 근데 제일 비쌈
가성비는 chatgpt나 자체적으로 qwen/llama 기반 파이선 모듈 올리는 거
아 그러니까 ai그림으로 치면 갤부루를 긴빠이한 nai를 긴빠이해서 파생된 수많은 모델 중에서 2만건의 짤을 직접 라벨링해서 추가로 학습시킨 포니모델 같은거군요
캐서디
2025/01/27 22:02
막줄이 핵심
보드카🍸
2025/01/27 22:03
그래서 자연어로 명령하면 파이썬 뽑아오는건 어디가 제일 성능 좋음..?
캐서디
2025/01/27 22:04
Github copilot
이세계 세가사원
2025/01/27 22:04
클로드가 제일 나음 근데 제일 비쌈
가성비는 chatgpt나 자체적으로 qwen/llama 기반 파이선 모듈 올리는 거
보드카🍸
2025/01/27 22:04
문돌이는 챗 gpt나 써야겠군
🐣RED O
2025/01/27 22:03
근데 네이버는 왜 이거 못 만듬
캐서디
2025/01/27 22:04
한국 전기세가 비싸서요
이세계 세가사원
2025/01/27 22:04
그건 네이버 ai팀에 물어보셔야….
사실 거기도 성과 꽤 많이 내긴 함 하이퍼클로바가 ㅈ은 아님
🐣RED O
2025/01/27 22:05
제작년에 썼을땐 별로였는데 요즘은 쓸만하나
이세계 세가사원
2025/01/27 22:06
걔네는 llm 아닌 쪽은 진심이고 연구성과 꽤 좋음
Llm 너무 늦게 들어가서 그만
🐣RED O
2025/01/27 22:07
그럼 llm은 별로인거 아녀?
あかねちゃん
2025/01/27 22:09
오히려 중국이 성과 냈으니 네이버도 슬슬 한 건 할 때가 됐다고 봐야지
이세계 세가사원
2025/01/27 22:09
국내 llm 연구는 고려대랑 서울대 연구도 좀 쳐지는게 어쩔수없음
당장 돈 안되는데 수백억 던지라면 던지는 연구풍이 아니여
루리웹-2861569574
2025/01/27 22:03
뭐여 비추를 줄거면 반박을 하면서 비추를 주라고
루에이-91123
2025/01/27 22:08
출처가 없고 말만 있어서 비추줬어..
범성애자
2025/01/27 22:10
나도 글에 근거가 없고 뇌피셜로만 정리돼 있길래 걍 비추 줌..
루리웹-5994867479
2025/01/27 22:04
아 그러니까 ai그림으로 치면 갤부루를 긴빠이한 nai를 긴빠이해서 파생된 수많은 모델 중에서 2만건의 짤을 직접 라벨링해서 추가로 학습시킨 포니모델 같은거군요
슙슙
2025/01/27 22:05
뭔소린지 잘 모르겠다
아디아
2025/01/27 22:08
그러니까
딥시크: 저수준에서 최적화 잘된거
진짜는 중국에서도 고수준의 AI 연구가 이뤄지고 있다는거
라는거 같음
대숲간고등어
2025/01/27 22:06
긴빠이 vs 긴빠이
코파카바나
2025/01/27 22:06
천하제일합법긴빠이대전
루리웹-36201680626
2025/01/27 22:07
것보다 프사 뭐임?
이세계 세가사원
2025/01/27 22:09
404 에러 게임 리셋이란 망한 게임 주인공 서포트 ai 캐릭터
아이깨끗하진않고더러워
2025/01/27 22:10
에러 게임 리셋이라는 세가 모바일게임의 타이틀히로인임
근데 겜 망함ㅠ
루리웹-36201680626
2025/01/27 22:11
아 그 해골놈 꺼
... ㅋ
二律背反
2025/01/27 22:07
뭔얘기인지는 모르겠는데 이게 비추 받을 내용인가
캐서디
2025/01/27 22:08
루리웹에 내가 모르는 얘기면 비추 한두번 본 것도 아니고 뭐
포오텐셜
2025/01/27 22:07
일반인들이 널리 쓰기에는 딥시크만한게 없고 ai 고점을 뚫는 작업은 연산량이 중요하다?
이세계 세가사원
2025/01/27 22:10
아예 다른 아키텍쳐 뒤집는 연구나 초거대모델 연구가 필요한 상황임
누가 또 판을 all you need is attension 때처럼 (지금 llm 붐) 뒤엎거나 아니면 초거대모델 이론 완성하면 바뀜
동동버섯
2025/01/27 22:07
모자란 하드웨어 성능을 양질의 자료 학습으로 매꿨다는 건가
양질의 자료가 필요한 만큼 댓가없이 이뤄진 퀄리티는 아니란 거구만
MoonD4
2025/01/27 22:08
근데 네이버는 진짜 뭐함?
루리웹-7890987657
2025/01/27 22:09
네이버가 기술력 높은 회사도 아니고 내수 원툴 회사인데 어떻게 못하지
별혜는밤
2025/01/27 22:08
그니까, 인간들이 자주물어보는거 관심있는거 그런거 대상으로 집중교육된게 딥식이고, 진정한 의미에서 agi로 가기위한거는 여전히 여러 기업에서 분투중이다 그거지
안경곰돌이
2025/01/27 22:10
그러니까 보편적으로 사용하는 AI로는 딥시크가 가성비가 좋아서 오픈 AI가 까불다가 한 대 맞은 셈이고, 실제로 사람들이 주시하지 않는 쪽에선 미국과 중국이 하이엔드급을 다투고 있다는 거구만.
uspinme
2025/01/27 22:10
ai의 고점을 높였다기보단 ai의 저점, 평균점에 도달하기 위해 들어가는 코스트와 시간을 대폭줄인데 의의가 있다고 보면됨?
냥말
2025/01/27 22:11
그정도인듯.
쟈스티스
2025/01/27 22:10
쟤네한테 명함도 못 내미는 네이버 Ai팀을 왜 가져와..
추론능력면에서 예산 수십배 더 쓴 오픈Ai o1이랑 비등한걸 언급해야지
루리웹-7890987657
2025/01/27 22:11
작성자 의도는 인디같은 소규모가 아니라 굳이 비교하자면 네이버 같은 꽤 큰곳에서 만들었다라는 소리지
이세계 세가사원
2025/01/27 22:12
모델사이즈 이론을 극복하진 못한 이론이라고
이게 이론입장에서 뒤집힌 게 아님 그냥 최적화로 성과 내봤다 정도야