유머천국 코하비닷컴
https://cohabe.com/sisa/49575

완전쉬운 딥러닝


이 글이 시작된 본글은 여기에 있습니다. 딥러닝과 논리학 연구


안녕하세요. 이기준입니다. 제가 어제 오유 과학게시판에 쓴 글이 베오베를 갔어요. 그것도 글 쓴지 세 시간 밖에 되지 않아서요.

제가 베오베 갈 것을 기대하지는 않았거든요. 그런데 베오베를 가고 나니 다른 분들의 댓글 중에 "아, 궁금해서 읽어보았는데 어렵다."하는 댓글이 눈에 들어오더군요.


그걸 보니 마음이 아프더라구요. 그래서 "이걸 좀 더 쉬운 유머처럼 써보면 어떨까?"하는 생각을 하게 되었습니다. 물론 제가 그렇게 하려고 노력을 하더라도 안될 수도 있지만요. 그래도 시도를 해보기로 마음을 먹었어요. 그게 저에게 친절하게 해준 사람들에게 보답을 하는 방법이라는 느낌이 들었기 때문에요.


그래서 수학 포기한 사람도 이해할 수 있고, 전공자 아닌 사람도 이해할 수 있는 이야기를 한 개 구상해 보게 되었습니다.


먼제 이 글을 읽기 전에 제가 말씀드릴 것이 있어요.


이 글은 저의 개인적인 주장이 들어가 있어요. 저의 개인적인 주장이 뭐냐면 과학계에서 "그래, 너 인정!"하는 객관적인 인증을 받은 주장이 아니라는 말이에요.


이 글의 본 게시물이었던 딥러닝과 논리학 연구 글은 과학계에서 인정받는 객관적인 정보성 글이 아니에요. 이 글은 제가 제 동생 이기환님과 연구를 한 과정을 정리한 주관적인 정리입니다. 제가 지금 쓰는 이 글도 본 게시물을 풀이한 내용이기 때문에 똑같이 주관적인 정리에요. 저는 이런 부분을 처음부터 정직하게 밝혔어요. 속인 적 없습니다.


지금 딥러닝 분야가 어떤 상태냐면 알파고 같은 놀라운 결과물이 거의 매 달마다 한 개씩 새롭게 나오고 있는데 아무도 그게 왜 그런지, 어떻게 해서 그런지 완벽하게 알아내서 규명을 못하고 있어요.



딥러닝 관련해서 외국 학자, 외국인 개발자들의 블로그와 칼럼을 읽어보면 위의 그림 같은 딜레마가 계속 반복해서 나와요. "00을 조정했더니 긍정적인 효과가 나왔다. 의미 있는 효과가 발생했다. 그러나 왜 그런 것인지, 어떤 원리로 그렇게 되는 것인지는 알 수가 없다." 논문에서도 이런 표현이 반복해서 나와요.


그래서 연구자들 사이에서는 "딥러닝 진리교"라는 우스개 소리도 있어요.

동료 포닥이여, 딥러닝 진리교는 네 가지 단계로 이루어지네. 포닥은 포스트 닥터(박사 후 연구자 과정)

첫째, 불신하는 단계이네. 이 불신은 주로 재래식 머신러닝을 오래 연구한 사람일 수록 심하다네.

둘째, 의심하는 단계이네. 딥러닝이 주는 엄청난 결과에 놀라면서도 그 원인을 파악할 수 없어 의심하고 방황한다네.

셋째, 받아들이는 단계이네. 모든 것을 체념하고 데이타셋을 돌리면서 딥러닝이 주는 기적같은 결과에 기뻐하고 감사하는 단계이네.

넷째, 딥러닝으로 영생을 얻고 다시 태어나는 단계이네. 과거의 머신러닝을 버리고 딥러닝으로 세례를 받고 새 사람이 되는 것이라네.


혹시 다른 머신러닝을 전공하신 분이 이 글을 읽고 있다면.. (살려주세요..) 위의 농담은 농담일 뿐, 너무 진지하게 받아들이지 마세요. 제가 만들어 낸 농담이 아니에요.


여튼 이게 업계의 현 상황이구요.이 문제가 배우는 사람들에게도 똑같이 적용되고 있어요.

논문 참조하고 그대로 딥러닝 프로그램을 돌려서 재현 결과가 나오긴 나오는데 왜 나오는지는 잘 모르겠고 그래서 헤메는 부분이 있어요. 이게 딥러닝 연구자들의 주요 고충 중에 하나에요. 왜 이게 되는지, 어떻게 되는지는 모르면서 최신 논문이 나오면 계속 재현 실험 해보고 그걸 토대로 옵션을 바꾸어서 결과를 더 나아지게 하는 걸 반복하고 있거든요. 그런 과정에서 알파고, 왓슨 같은 놀라운 결과물이 계속 나오고 있는 것이구요.


그래서 연구자들 중에는 이러다 과학이 망하겠다 하는 걱정을 하는 분도 있습니다. 왜냐하면 과학이라는게 과정을 증명하지 못하고 결과만 보여주면 안되거든요. 그러면 원리를 아는 게 아니니까 연구를 믿을 수가 없잖아요. 이론을 이해하고 증명하지 못하면 과학자들이 필요 없어질 수도 있구요. 과학자 대량 실직 사태?! 아.. 앙대..


거기다가 알파고, 왓슨 등이 놀라운 성과를 내면서 4차 산업혁명이다, 인공지능이 사람 일자리를 다 뺏을 거다 하는 전망이 나오잖아요. 그래서 불안해 하시는 분들이 있어요.


그러나 과학이 망하지는 않겠지요. 제 생각에는 예전에 양자역학 처음 개발되었을 때 동시성, 다차원성 때문에 과학자들이 패러다임을 받아들이는데 힘들었던 것과 비슷한 맥락이라고 봅니다. 시간이 지나면 과학자들의 패러다임, 즉 세계관이 딥러닝을 이해할 수 있는 방식으로 바뀌게 될 거라고 생각해요. 그러니 우리는 지구멸망 같은 걱정은 하지 말도록 합시다.



위의 그림같은 일은 일어나지 않을 것임.


어? 그러면 이기준님과 이기환님은 뭘 아는 거임?

"어? 과학자들이 전부 잘 모른다면서요? 그러면 이기준님은 뭘 아는 거임?" 이런 질문이 나올 수 있겠네요.
그래서 제가 처음 말한 것이 제 개인적인 주장이 들어가 있다는 말이었어요. 그러나 제가 아무것도 모르면서 구라를 하는 것은 아니에요.


저는 딥러닝 공부를 하려고 싱글 퍼센트론과 다중 퍼셉트론 소스를 C++에서 줄리아로 포팅했어요. 포팅이라는 것은 뭐냐면 영어로 된 코드를 중국어로 번역을 한 거랑 같은 거에요. 그러려면 영어도 중국어도 다 이해해야 하죠.  

포팅해서 제대로 동작하면 제가 C++ 소스도 제대로 이해했고, 줄리아 코딩도 제대로 했다는 것을 의미해요. 그리고 줄리아 포팅한 소스에 주석도 달았어요.


주석이라는게 뭐냐면 코드 밑에 이 코드는 이러이렇게 동작한다 하고 설명을 달아 놓는 것이에요. 저는 주석을 코드 한 줄 한 줄 다 달았어요. 이게 무슨 말이냐면 제가 대충대충 흉내만 내서 포팅한 것이 아니라 코드 한 줄 한 줄 다 이해했고 설명이 가능하다는 거죠.


이렇게 잘 쓰여진 소스 한 개를 분석해서 주석을 달면서 다른 언어로 포팅을 하는 연습을 하면 프로그램 실력이 팍팍 늘어요. 앞으로 소프트웨어 분야에서 일하고 싶으신 분들은 명심하시길 바래요. 이런걸 이종포팅, 이종학습이라고 불러요.


이런걸 다른 사람들은 안 하냐구요? 다른 사람들이 안 하는 것은 아닌데요. 저처럼 하는 사람이 적어요. 아예 없는 것은 아닌데 드물다는 거죠.


제가 연구했던 방식을 비유를 해서 설명하면요. 스타크래프트가 있어요. 그런데 대부분의 사람들은 스타의 유저 맵 생성기를 이용해서 새로운 맵을 만들고 유즈맵 게임을 만들고 그랬어요.


그런데 저는 블리자드에서 공개한 오픈소스 스타프래프트 C++ 소스를 보기만 하고 저 스스로 줄리아라는 새로운 언어로 스타크래프트 복제본을 코드로 쳐서 바닥부터 만들어 본 거에요. 그게 바로 포팅이에요. 그렇게 포팅을 하면서 스타크래프트 소스의 코드 한 줄 한 줄 내용을 분석하고 그 의미에 대해서 주석을 달아 본 것이에요. 그러면 그 프로그램이 어떻게 만들어졌는지 잘알 수 있겠죠.


제가 자랑을 하려고 한 것은 아니고요. 당연히 유저 맵 생성기 써서 맵 만들고 유즈맵 만든 것도 의미가 있죠. 훌륭한 결과물도 거기서 많이 나오구요. 절대로 무시하는 것이 아닙니다.


딥러닝 업계에서 유저 맵 생성기 역할을 하는 프로그램이 있어요. 이것을 프레임워크라고 해요.



위의 그림에 나온 것들이 프레임워크에요. 대부분의 연구자들은 이런 프레임워크를 이용해서 여기에 데이터셋이라는 것을 넣어서 돌린 다음 결과물을 얻어요. 왜 그렇게 하냐면 연구 시간이 단축되거든요. 작업하기가 수월해요. 대신 속에서 뭐가 어떻게 돌아가는지는 잘 모르게 되죠. 그렇게 장단점이 있어요.


저와 제 동생 이기환님이 프레임워크로 실험하는 것도 해보았는데요. 그 안에서 일어나는 깊은 원리를 이해하고 싶어서 자기 스스로 이종 언어로 포팅하기를 해본 것이에요. 그러면 프로그래밍 실력이 확 올라가거든요.



위의 짤방은 웃자고 만들어 본 것일 뿐, 이종포팅과 주석달기 외에도 프로그래밍을 배울 수 있는 방법은 많아요. 제 입장에서는 여러가지 해본 결과 이종포팅을 하고 코드를 한 줄 한 줄 해석해서 주석다는 것이 상대적으로 최선이라고 생각한다는 거에요. 그러니 웃자고 만든 짤방을 보고 죽자사자 덤벼드시면 안되요...


자 그래서 제가 분석한 소스를 기준으로 딥러닝이 어떻게 돌아가는지 어느 정도 안다고 주장을 할 수 있는 것입니다. 우리가 이종포팅한 링크를 오픈소스 사이트인 깃허브에 올렸었구요. 깃허브 링크


과학 계열에서는 이런 것을 중요하게 생각하거든요. 그 사람이 말하는 것에 근거가 뭔지, 해 보고 말하는 건지 안 해보고 그냥 상상으로 추측만 하는건지 말이에요.


만약 제가 이종포팅 경험 없이 그냥 "카더라..", "그럴 것 같지 않음?"같은 식으로 글을 쓰면 아마 연구가 의미가 없을 거에요. 상상을 구현해서 검증해 볼 수가 없으니까요.


저는 오유에만 글을 올린 것이 아니라 딥러닝 연구자 그룹에 이 글을 먼저 올렸었어요. 원래 거기만 올리려고 한 것인데 제가 예전부터 오유에 글을 올려왔어서 한 번 과학 게시판에 올려 본 것이었어요. 그러다가 얼떨결에 베오베까지 가게 된 것이었구요.


여튼 저는 딥러닝 이종포팅 경험이 생겼어요. 그런데 저도 딥러닝이 왜 그렇게 돌아가는지, 어떻게 해서 그런 것인지 완벽하게는 모릅니다. 그래서 저는 딥러닝의 정보처리를 풀이할 가설을 세워 보았어요. 그 가설에 사용된 근거가 바로 제가 연구하던 연역론이에요.


읭? 연역론?

저는 연역론이라는 이 가설 이론을 오랫동안 연구했어요. 이 글을 읽으시는 분들은 연역론이라는 이름에는 크게 신경 쓸 필요 없어요. 제가 지은 이름이니까요. 왜 이름을 따로 새롭게 지었냐면 이걸 가르쳐 주는 사람이 없어서 제가 계속 연구를 하다가 다른 학설과 구분하려고 이름을 따로 지어 준 것이에요.


제가 연역론이라는 것을 연구한지는 10년이 넘었어요. 연역론이라는 이름은 2012년에 지어 주었구요. 그 전에는 그냥 이기준의 이론, 이기준의 의견 정도로 정의하고 있었죠. 그러다가 부르는 말이 없으니까 이론을 전개할 때 갑갑하더라구요. 그래서 이름을 한 개 지어준 것이 연역론이라고 하게 되었어요.


그럼 아래에 이어지는 내용에서 천천히 연역론이 무슨 내용으로 되어 있는지 설명을 해볼게요. 그리고 한 번 더 얘기할게요. 제가 연구했다던 논리학 주제인 연역론은 저 개인적인 주장일 뿐 딥러닝계의 다수 이론, 정설이 아닙니다.

제가 이렇게 여러 번 써도 이해를 못하시고 가끔씩 시비를 걸고 뭐라고 하시는 분이 있어서 이렇게 강조해 봅니다.


딥러닝의 비하인드 스토리..

이 내용은 전공자들은 대부분 알고 있는 얘기에요. 그러나 이 글은 완전 쉽게 초보를 위해서 쓰는 것이기 때문에 적어 볼게요.


딥러닝에 사용되는 기술인 DNN을 우리말로 강제번역하면 심층 신경망이라고 하는데요. 인공신경망을 겹겹으로 사용해서 정보처리를 하는 것입니다. 인공신경망은 무엇이고 누가 만들었을까요?


인공신경망의 가설은 1940년대부터 시작되었어요. 몇몇 학자들이 사람의 신경에서 일어나는 정보처리를 컴퓨터에서 구현하면 어떨까? 해서 계산 방법을 만들어 보고 있었어요. 그러다가 1950년대 말부터 그 가설을 퍼셉트론이라는 형태로 구현한 분이 나타났어요. 그분의 이름은 프랑크 로젠블라트에요.



위의 그림에서 왼쪽 사진이 로젠블라트구요. 오른쪽 그림이 퍼셉트론을 간단한 도식으로 만들어 본 것이에요. 이게 무슨 내용인지는 아래에 이어질 글에서 설명해 볼게요. 일단 지금은 역사얘기부터..


1950년대 말부터 1960년대는 미국 경제가 호황기였거든요. 그런 상태에서 "컴퓨터가 사람처럼 생각하게 할 수 있다."는 주장은 큰 인기를 끌었어요. 여기저기서 연구 자금이 많이 들어왔죠.


당시 인공지능 업계에는 두 가지 큰 흐름이 있어어요. 한 개는 프랑크 로젠블라트가 주도하는 인공신경망 계열이었고요. 다른 한 계는 마빈 민스키가 주도하는 기계학습(머신러닝) 계열이었어요.


그런데 이렇게 두 계열이 평화롭게 연구를 하면 좋은데.. 현실은 그렇지 못했어요. 왜냐하면 그때 당시에는 컴퓨터의 계산 능력이 그렇게 강력하지가 않았거든요. 그래서 인공신경망, 기계학습 둘 다 의미 있는 수준 만큼 성과가 나지 못하고 있었어요. 컴퓨터가 계산 능력이 떨어지니까 프로그램의 계산 결과물이 안 나오는 거에요.


그렇게 한 10년 정도 지나는 동안에도 성과가 안 나니까 연구 지원하는 곳에서 "너네들 뭐하는 거냐? 그거 진짜 되기는 되는거냐?"하고 압박이 들어왔어요.


그래서 갑자기 인공지능 업계가 서로를 까고 비방하는 분위기로 바뀌었어요. 양쪽 다 실전으로 증명을 못하는 상태에서는 어느 한 쪽을 까서 찍어 누르는 편이 자기가 살아남는데 유리하거든요. 인터넷에 게시판에서 실제로 증명 못하는 사람들이 주로 키보드 워리어, 주둥이 파이터가 되는 거랑 비슷하죠.



그러던 와중에 마빈 민스키 쪽에서 인공신경망을 호되게 비판하는 논문을 발표해요. 쉽게 말해서 "인공신경망은 아무런 쓸모가 없는 구라다!"하는 정도의 막장 디스를 한 거에요. 민스키 쪽의 기계학습 계열도 그렇다 할 성과는 없었지만 인공신경망보다 조금 더 결과가 좋았거든요.


그래서 인공신경망 쪽에 지원되던 연구자금이 끊어지게 되었어요. 충격 먹은 로젠블라트는 자살을 하게 되었어요. 지못미.. 슬프네요.


그런데 이 치킨 게임의 승자는 없었어요. 아까 말했지만 민스키 쪽의 기계학습도 뚜렷한 성과를 못 내었거든요. 그래서 인공지능 업계 전체가 망하고 약 20년 동안 펀딩이 끊어지게 되었어요. 이것을 두고 업계 사람들은 인공지능의 겨울이라고 불러요.



이 핵겨울 기간 동안 기계학습 계열에서는 철저하게 인공신경망 계열을 따돌리고 괴롭히게 되었어요. 어떻게 괴롭혔냐면 기계학습 계열이 주류를 이루어서 인공신경망 계열의 논문이 저널에 신청되면 리젝트(거절)해버리는 거에요. 기계학습 연구자들이 몰려들어서 다구리를 놓아서 논문 발표가 안되게 했다는 거죠. 비열하죠? 그러나 이게 현실이었어요.


논문을 리젝트 시키니까 인공신경망 계열에서 박사가 점점 안 나오게 되고 박사학위를 못 받으니까 취직도 안되구요. 취직자리도 기계학습 계열이 다수인 곳에서는 인공신경망 전공한 사람이 들어오지 못하게 막았어요. 그래서 한 때 업계에서는 인공신경망은 내용을 읽어 보지도 않고 리젝트 시킨다는 우스개 소리도 있었어요.



제프리 힌튼이라고 2000년대에 와서 유명해지신 이분도 이 박해를 피해서 캐나다의 대학교로 떠났어요. 미국에서는 자리가 안 나서요.


기계학습은 1980년대부터 차차 의미있는 결과가 나오기 시작했어요. 그런데 인간의 인식능력, 인간의 판단능력에는 미치지 못했어요. 그래서 이 시기 동안에는 주로 인간만큼의 능력을 내는 것을 목표로 해서 연구를 했어요.


그리고 이 암흑기 동안 인공신경망 계열에서는 몰래 숨어서 비공을 연마하고 있었어요. 1990년대 즈음부터 인공신경망의 생존자였던 제프리 힌튼과 얀 르쿤은 최초 아이디어였던 퍼셉트론을 개량해서 다중 레이어 퍼셉트론을 개발하게 되었어요. 이게 딥러닝으로 발전하게 된 것이구요.


그러나 이분들의 아이디어는 실제 현실에서 구현을 해서 검증을 하지 못했어요. 이 아이디어를 구현 실험하려면 컴퓨터 자원이 많이 필요했거든요. 쉽게 말해서 슈퍼 컴퓨터가 필요했는데요. 이분들에게 그만한 지원이 이루어지지 않았어요. 그래서 힌튼은 자주 이런 말을 했다고 해요. "나한테 펀딩만 좀 더 빵빵하게 해주기만 하면 놀라운 결과물을 보여줄 수 있다고!"



그런데! 2000년대에 구글이라는 회사가 등장해요. 이 회사는 회사 초창기부터 인공지능에 관심이 있었어요. 그래서 자기 회사 서비스에 기계학습을 도입해서 이득을 얻었어요. 구글의 검색서비스, 이메일의 스팸필터, 기타 구글 서비스들에는 다양한 기계학습과 기타 자동화 기술이 많이 사용되었어요.


구글에서는 세상에서 정파와 사파로 구분하는 것에 연연하지 않고 기술이 있으면 검증을 해보고 자기 회사에 도움이 되면 다 가져다 쓰자 하는 모토를 가지고 있었는데요. 그래서 인공신경망을 개량한 딥러닝 기술을 가져다가 실험을 해보게 되었어요.


그랬더니?! 의미있는 성과가 나온 거에요. 그리고 비슷한 시기에 사진을 보고 구별하는 이미지넷이라는 대회에서 제프리 힌튼 연구실 팀이 우승하게 되었어요. 갑자기 인공신경망 계열에 봄이 찾아온 거죠! 이제 2000년대 이후 인공신경망 계열을 딥러닝 계열이라고 할게요.



특히 이미지넷 대회에서 딥러닝 계열은 2012년부터 기계학습 계열을 다 이겨버렸어요. 위에 그래프를 보면 딥러닝 계열 녹색이 비 딥러닝 계열들 파란색을 다 재껴버린 것을 볼 수 있죠. 돌아가신 로젠블라트가 이걸 보면 기뻐서 눈물이 나겠네요.


기계학습 계열에서는 그동안 엄청 노력했는데도 사진 인식률이 80%를 넘지 못했어요. 85% 정도가 사람 인식 능력이라고 하거든요. 그런데 딥러닝 계열은 85%를 뛰어넘고 90%를 뛰어넘게 된 거에요. 사람보다 더 사진을 알아보는 능력이 낫게 된 거에요. 이제 인간을 닮은 인공지능이라는 말이 무색하게 된 거죠.


그래서 기계학습 계열에서는 멘붕.. 그리고 처음에는 딥러닝을 은근하게 까려고 했어요. 아까 위에 제가 인용했던 "딥러닝 진리교" 농담처럼 기계학습(머신러닝)을 하던 사람들은 부러워서 배가 아프기도 하고, 이게 뭔가 의심스럽기도 하고, 화가 나기도 하고 복잡한 심경을 겪었어요.


특히 학계에서 나이가 많은 사람(일명 꼰데)들일 수록 기계학습 위주로 배웠고 인공신경망은 쓸모없다고 배운 경우가 많았거든요. 그런데 딥러닝 계열 실력이 월등히 좋으니까 예전처럼 까고 무시하려고 해도 그럴 수가 없었죠. 그래서 비교적 젊은 연구자들 중심으로 현실을 받아들이고 딥러닝 진리교로 넘어가는 사람들이 생겨났습니다.


그리고 더 많은 딥러닝 실력자들이 강호에 나타나기 시작했어요.



알파고로 유명해진 구글 딥마인드를 만든 하사비스가 그런 사람인데요. 사람 중에 그 분야에서 최고 능력자에 해당하는 이세돌 같은 사람도 이길 수 있다는 이 놀라운 결과 때문에 전세계의 이목이 딥러닝 분야에 쏠리게 되었어요. 그게 현재 상황이네요. 이제 딥러닝 분야에 투자도 많이 이루어지구요.


놀라운 반전이 있었죠?

그리고 여기에 숨은 사실이 하나 더 있어요. 딥러닝을 흥하게 한 요소 중에는 게이머들이 사용하던 그래픽카드의 공이 있었어요. 딥러닝을 연구하던 연구자 한 명이 시험삼아서 CPU가 아니라 수십 개에서 수백 개의 코어를 가진 그래픽카드의 GPU로 딥러닝 프로그램을 돌려보면 어떨까.. 해서 해보았더니 딥러닝 계산 시간이 수십 배로 단축되었다네요. 그래서 딥러닝 연구하는 사람들은 거의다 GPU를 사용해서 프로그램을 돌려요.



게이머를 위해서 개발한 그래픽카드가 이런 곳에 쓰이게 되었다니 신기하네요. 나는 그저 지난 수십 년 동안 게임을 열심히 했을 뿐인데 그게 그래픽카드 산업을 흥하게 하고 나비효과로 딥러닝에 영향을 미쳐서.. 원기옥에 에너지를 보탠 느낌이네요.


자 이것으로 딥러닝의 비하인드 스토리를 마치고요. 더 궁금한 것은 구글 검색 해보시면 잘 나올거에요.


절대성과 상대성

이제 제가 딥러닝 프로그램에서 어떤 정보처리가 일어나는지 가르쳐 드리려고 하는데요. 이걸 이해하려면 먼저 절대성과 상대성에 대해서 이해를 하면 편해요.


절대성이라는건 뭘까요?

쉽게 말해서 "무조건 그렇게 되는거임."하고 말하는 것은 절대적이라고 주장하는 진술이에요.


예를 들어서 종교 믿는 사람 중에 좀 꽉 막힌 사람을 보면 "그냥 무조건 그런 거임. 믿숨니다!”하는 경우가 있잖아요 이게 절대적인 주장, 절대성인거죠.


그런데 이 세상에는 절대적인 것이 있나요? 없거든요. 절대적인 믿음이나 절대성에 대한 생각은 생각하는 그 사람의 머리속에만 있어요. 자기 상상으로만 할 수 있다는 거죠.


그러면 상대성은 뭘까요? 상대성은 기준을 정하고 비교를 해서 그 기준으로 판단을 했더니 더 나은게 있고, 덜 나은게 있다는 생각이에요.


예를 들어서 인텔과 암드(AMD)가 있어요. 둘 다 CPU를 만들어요. 그런데 멍구는 인텔이라는 브랜드를 좋아해서 인텔 제품을 구입했어요. 웅이는 가격대 성능비, 즉 가성비를 기준으로 해서 골랐는데 그렇게 해서 암드 제품을 구입했어요.



멍구는 인텔이라는 브랜드에 대한 개인 취향, 주관적인 느낌으로 구입을 했어요. 그건 나쁜게 아니에요. 그럴 수도 있죠. 그런데 멍구가 웅이에게 "야 임마, 인텔이 짱이야. 그냥 무조건 인텔 사."이러면 이게 절대성을 주장하는 것이 되요.


웅이는 가성비를 기준으로 구입을 했는데요. 웅이가 절대적으로 나은 것이 아니에요. 그러나 웅이는 자기가 기준을 정하고 상대적인 비교를 해서 선택을 했죠. 이런 차이가 있어요. 웅이도 만약 멍구에게 "쨔샤, 가성비를 봐야지. 무조건 가성비로 사야돼."이렇게 주장하면 상대적인 영역에서 절대적인 주장으로 이동하게 되요.


이 관계를 논리학으로 정리해서 이해해 보아요.

멍구가 인텔 브랜드가 좋아서 인텔 CPU를 샀다.

이거슨 개인의 자유

그리고 이거슨 멍구의 주관적인 생각과 느낌

웅이가 가성비를 기준으로 제시한 다음 그 기준대로 판단을 해서 가성비가 상대적으로 제일 나은 것을 골랐다. 그랬더니 암드였다.

이것도 개인의 자유

그리고 이거슨 웅이가 가성비라는 상대적인 기준을 만들어 내서 판단을 한 거임

멍구가 웅이에게 "암드 왜사 임마, 인텔이 무조건 짱이야!" 이러면 멍구가 자신이 가진 개인적인 생각, 주관적인 생각으로 웅이를 괴롭히는 것이 됨.

이것이 바로 고정관념임

고정관념은 자기가 주관적으로 생각한 것, 상상한 것, 느낀 것이 이 세상에 절대적으로 적용된다고 착각을 하는 것임

자신이 가진 고정관념을 다른 사람에게 강제로 적용하려고 하면 오지랖을 부리는 일, 꼰데짓이 됨.

반대로 웅이가 멍구에게 "가성비로 구입해야지, 무조건 가성비가 짱이야."이러면 웅이 역시 자기가 생각한 것이 이 세상에 절대적으로 적용된다는 착각을 하는 것임. 즉, 똑같은 고정관념이 됨.

자신의 주관적인 생각이 주관적인 생각이라는 것을 인정하고 다른 사람의 주관적인 생각을 있는 그대로 인정하면 그거슨 피스(Peace), 다원주의, 다차원주의가 됨.

쉽게 말해서 서로 각자 다른 관점을 가지고 있다는 것을 기본적으로 이해한다는 것임

그렇게 개인이 서로 다른 관점을 가지고 있다는 것을 인정하고 나서도 여전히 객관적인 사실은 있음.

멍구는 30만원짜리 인텔 CPU를 사고 웅이는 10만원짜리 암드 CPU를 샀다는 것. 이거슨 변함없는 객관적인 사실

과학에서는 이 객관적인 사실을 가지고 최종 판단함.


여자분들은 인텔 암드가 잘 이해가 안되시겠죠? 똑같은 버전으로 명품 브랜드랑 저가 인터넷쇼핑몰 가방을 얘기해볼게요.

쑤니는 브랜드인 샤넬백을 구입했구요. 여니는 가성비가 좋은 저가 인터넷쇼핑몰 가방을 구입했는데요.



논리 설명은 똑같아요.

쑤니가 샤넬 브랜드가 좋아서 샤넬백을 샀다.

이거슨 개인의 자유

그리고 이거슨 쑤니의 주관적인 생각과 느낌

댓글
  • 중앙미드필더 2016/12/21 16:38

    "머신러닝이란 제시된 데이터와 판정결과 페어를 사용해서 같은 유형의 문제를 해결하는 근사 함수 F를 찾는 행위이다"
    --> 맞습니다. 그런 정의에만 매여 있으면 머신러닝의 범위도 그 패러다임안에서만 창조되는 것이죠.
    "그러나 저는 다른 사고방식을 가지고 있습니다.
    저는 '문제를 해결하는 일반화된 함수를 찾는다.'란 말은 더 절대적인 기준을 찾는 방향으로 가는 것이라고 생각합니다.
    저는 '상대적으로 문제를 해결할 확률이 높은 방법을 찾고 그 방법을 지속해서 개선한다.'를 기준으로 가지고 있고 앞으로 이 기준에 더 가까운 프로그램을 연구하고 개발할 것입니다."
    --> 잊지 말아야 할 것이 있습니다. 기환님께서는 딥러닝과 논리학에 대한 연구를 진행하고 계신데, 찬물을 끼얹어서 죄송합니다만 (글쓴 취지에 적합하지도 않은 답변이지만) 한 말씀 드리고자 합니다. 이미 알고 계시겠지만, 딥러닝은 여러가지 인공지능 방법론 중 하나입니다. 패러다임 안에 있다는 말입니다. 당연히 못하는 것이 엄청나게 많습니다. 그래서 여러 방법론을 합치거나 지지고 볶고 해서 더 큰 그림을 그릴 수 있을 것입니다. 아니면 전혀다른 이종의 것을 생각해야 할 수도 있습니다.
    19세기부터 20시기까지 여러 엄청난 철학자들(논리)과 수학자(확률)들이 두 가지 학문을 완전하게 반석위에 올리기 위해 통합하려 애썼지만 결과는 실패였습니다. 지금은 컴퓨터 과학자와 AI연구자들이 이것을 진행중에 있습니다만...... 기환님도 이 세계에 기여하고 계시군요. 전 지금까지 발명되었던 여러가지 방법론 오히려 세계속에 존재하지 않는 여집합의 존재가 열쇠가 될지도 모르겠다는 환상도 가끔 가져봅니다. 그냥 직관적으로 딥러닝은 안될 것 같아요.. ㅠㅠ

    (BFT025)

  • q꾼p 2016/12/21 17:16

    닉네임이 본명이신가ㄷㄷㄷ

    (BFT025)

  • 파란달s 2016/12/21 17:28

    스크랩!
    궁긍한게 있습니다.  일반적인 시뮬레이션 즉,  격자망을 짜고 flow 지배식이 존재하고 경계조건 설정하고 추가적인 스트레스 격자설정하고 향후 몇일 몇년후를 예상하는데
    계산과정은 각 격자셀을 하나의 연립방정식으로 생각후  격자셀만큼의 미지수가 생성되고
    jacobi나 sor로 미지수의 해를 구하게되어 BTCS로 미래를 계산해내는데
    이러한 일반적인 수치해석, 시뮬레이션 에도 인공신경망을 적용하여 시간 단축시킬수 있을까여?
    지금 결과 하나 뽑는데 2달 걸려서 미치겟습니다.......결과가 제가 원하는대로 제대로 안나오면 2달 날리는 거니...

    (BFT025)

  • 볶음양파 2016/12/21 18:02

    대학원에서 "연구"를 하고 현재는 "연구소"에서 일하는 한 사람으로서, 어쩌다어른 님의 요점이 저는 정확히 이해가 됩니다. 다만 요점을 제대로 전달을 못한 것 같네요. 연구자로서 "연구"라는 단어에 대한 정의는 서로 다소 간의 차이는 있을 수 있지만 "사실에 근거한다"는 가정은 변하지 않을 것입니다. 그런 의미에서 사실과 다를 수 있는(실제로 사실과 다른 내용이 이전 글에 꽤 많습니다) 자신의 "의견"을 정리한 "연구일지" 라는 것에서 연구자들 특유의 엄밀함을 추구했던 것 같으니, 이렇게 공공연하게 따로 글까지 쓰면서 특정인을 공격할 필요는 없을 것 같습니다. 이전 글에서 몇 년 전 오유에 이런 주제와 관련하여 글을 달았을 때 악플을 많이 받았다는 내용이 있었는데, 그런 경험 때문에 좀 더 공격적으로 받아들인 면이 없지 않나 싶습니다. 저는 이런 틀에 박히지 않은 자신만의 체계를 구축하는 것이 의미있다고 보고 응원합니다. 하지만 타인의 의견을 객관적으로 보지 못하는, 상당히 폐쇄적으로 보이는 이런 모습은 본인의 지식을 공고히 하기 위해서라도 피해야 할 것입니다.
    (이에 대해 첨언하기 위해) 제 개인적으로는, 딥러닝을 연구하고 있는 사람으로서 이런 우려가 있습니다 (사실 어쩌다어른 님도 저와 비슷한 생각때문에 이전 글에서 그런 댓글을 쓰지 않았나 싶습니다). 딥러닝이라는 용어는 요즘 분야를 막론하고 정말 많이 언급됩니다. 사실 딥러닝은 새로운 기술이 아닙니다. 수학적으로 이미 오래 전에 정의되었으나 기술적 한계로 쓰이지 못하다가 Back propagation이나 ReLu 등 딥러닝의 고질적인 문제들을 해결해주는 도구들이 등장하면서 (+ GPGPU 등 빅데이터를 현실적인 시간 안에 처리할 수 있는 하드웨어들이 등장하면서) 본격적으로 수면 위로 떠오르게 된거죠. 이전에 이미 이미지넷 챌린지 등을 통해서 입소문을 타다가 알파고 때문에 대중에게도 이젠 보편적으로 쓰이는 용어가 된 것 같습니다.
    하지만 현실에서 제대로 딥러닝을 아는 사람들이 그리 많지 않다는 것이 문제입니다. 이렇게 글을 쓰는 저도 모르는 부분이 산더미입니다만, 기본적으로 대중들은(여기서 대중이란 머신러닝과 같은 컴퓨터과학이나 이에 관련된 수학적 베이스가 없는 사람들을 의미합니다) 지도학습 비지도학습 강화학습의 개념조차 모르는 경우가 많습니다. 하지만 하도 딥러닝 딥러닝 주변에서 외쳐대니, 바쁜 시간을 쪼개 가능한한 짧고 쉬운 글로 딥러닝에 대한 개념을 쌓으려고들 하죠. 만약 이 과정에서 정말 “사실에 근거하여 정확한” 글을 접한다면 그만큼 관련된 일을 하는 사람으로서 좋은 일도 없을 것입니다. 만약 17살의 고등학생이 잘못된 딥러닝 개념을 쌓게 된다면 그것이 미치는 영향은 극히 미미할 수 있으나, 현업에 계신 많은 선배님들께서 잘못된 딥러닝 개념을 한 번 쌓아버리게 되면 이상한 정책이 나오거나 이상한 프로젝트가 탄생하거나 이상한 기관들, 단체들이 생기고 이상한 사람들에게 불필요한 돈이 흘러갈 수 있습니다 (이건 지극히 개인적인 생각이지만, 이미 그런 일들이 일어나고 있는 것 같습니다).
    이런 환경 속에서 딥러닝을 연구하고 있는 사람이라면, 사실에 근거하지 않은 정보를 접하는 대중들을 우려하는 것은 자연스러운 일입니다. 물론 어떤 사람들은 이기준 님의 글을 읽고 “아 사실이 아닐 수 있는 내용이 있구나, 알아서 걸러 읽고 걸러 해석해야지”라고 할 수 있으나 그렇지 않은 사람들은 무비판적으로 받아들여 그것이 마치 딥러닝의 진리인 양 이해할 수도 있습니다. 그것이 이기준 님이 이런 글을 쓰는 목적은 아닌 것 같습니다만, 관련업 종사자로서 일종의 우려(자신의 연구분야에 대한 일종의 애정일 수도 있겠지요)를 표하는 것도 충분히 이해할 수 있을 것입니다. 그런 수준에서 이해를 해야지 이런 식으로 다분히 공격적이고 폐쇄적인 글을 “굳이” 쓴다면 글쎄요, 좋은 의도를 가지고 온 사람들도 벗어날 것만 같은 느낌이 듭니다.

    (BFT025)

  • 볶음양파 2016/12/21 18:12

    저도 뭐 잘 아는 것은 아닙니다만, 조금이나마 아는 지식을 정리해보고 싶다는 생각이 이기준 님 글을 읽고 들었습니다. 본인의 체계를 구축하는 것을 넘어 다른 사람들에게 좋은 자극제가 되는 글이라는 점에서 아주 좋은 활동이라고 생각합니다. 이제 CNN으로 넘어간다고 했는데 개인적으로는 RBM이나 RNN쪽을 더 많이 공부해보길 권장합니다.
    저도 제 나름대로의 체계를 쌓기 위해 노력중인데, 아무리봐도 본연의 "지능"이나 생명체의 "진화론적 사고"를 컴퓨터로 모방하기엔 그 쪽이 더 적합해보이더군요. 요즘엔 딥 뉴럴 네트워크의 블랙박스를 이해하고 새로운 대안을 나름대로 제시해보고자 인지과학 쪽을 공부해보고 있는데, 연구는 연구대로 하면서 따로 공부를 하기가 여간 쉬운 일이 아니네요 ㅎㅎ 저도 이기준 님처럼 같은 주제를 놓고 심도깊은 토론을 나눌 수 있는 동생이 있다면 좋겠다는 생각도 들었습니다 ^^
    시간(이라기보다는 사실 제 의지..ㅎㅎ)이 허락해준다면 저는 인공지능의 개략적인 역사와 함께 인공지능, 머신러닝, 딥러닝 등의 용어들에 대한 나름대로의 (사실에 근거한) 정의들, 그리고 딥러닝의 도래와 수학적 베이스들, 최신 연구들까지 나름대로 시리즈를 만들어 연재해보도록 하겠습니다 ㅎㅎ

    (BFT025)

  • 어쩌다어른 2016/12/21 21:31

    비도오는데 저에대한 공격적인글은 그냥 넘어가겠습니다만. 훗날 이불 뻥뻥차실거라 굳이 한마디만 드립니다.
    딥러닝 기술로 내일 산학관력 보고를 하는데. 이미지쪽 외에 딱히... 괄목할만한 성과가 안나왔슴니다. 이미지는 뭐 잘되는 이유가 뻔하고요..
    다른 계열 데이터를 딥러닝한 결과에 대해서 기존분석기술대비... 안좋아 좀 그렇네요... rnn쪽에 저도 한가닥 좀더 살펴보라고 하고 있습니다.
    이씨형제분들이 개인적으로 연구하시는건 한번 하시는거 좋습니다.  다만 위에 글써주신 양파님이 너무 정확하게 말름해주신것이고 저의 말표현의 한계가 보이네요
    하나더 코멘트 하자면 지금 형제분들이 하고자하는게 전이학습이라는 트랜스퍼 러닝쪽에 가깝게 보입니다.
    아직 전이학습이 체계적이지 않고 초입단계입니다만 이형데이터기반의 학습기술이라은 점에서 연역법같은 개념과 그나마 맞을 것입니다. 현재 일반적으로 말하는 딥러닝은 님들이 추구하는 바와 안맞습니다
    위에 유동해석 시뮬레이션을 실제 돌리지않고 cnn으로 학습하여 근사예측모델로 쓴다는 것인데 제품설계쪽에서는 쓰고있는 기술입니다.

    (BFT025)

  • 제4의물결 2016/12/22 01:28

    정성글엔 추천.
    지난번 글도 읽으려고 스크랩 해 뒀는데 요즘 바빠서  못읽고 있네요.
    좋은 결과 있으시길 바라겠습니다.

    (BFT025)

  • 이기준 2016/12/22 08:23

    아래는 페이스북 그룹인 AI Korea에서 제가 쓴 글을 읽고 댓글을 달아주신 것을 여기에 옮긴 것입니다.
    신민석
    이 글 전에 어쩌다 어른 님과 댓글로 논쟁한 걸 봤는데 제가 한국 핸드폰이 없어서 오유 회원가입이 안되서 댓글을 남길 수 없네요. 그래서 대신에 여기에 댓글을 남깁니다.
    일단 댓글로 논쟁 하면서 감정이 좀 상하신거 같은데 진정하시구요. 어쩌다 어른님이 비꼬면서 기분나쁘게 댓글 단 부분이 있었다고 생각합니다. 그 분은 학계에서 논문을 심사할 때 쓰이는 기준 그대로 이기준 님이 쓰신 글을 평가하셨구요. 제목부터 필체까지 학술적인 글쓰기라고 생각하게 끔 하는 요소들이 있으니까 그 분입장에서는 학술적 글쓰기를 보는 시각으로 오유 글을 읽으셨을 겁니다. 그 기준에서 오유에 올리신 글은 문제가 많습니다. 아마 100명의 학자에게 물어봐도 100명 모두 그 글은 문제가 많다고 생각할 겁니다.
    하지만 댓글에도 쓰셨듯이 님은 논문 식으로 쓰신 게 아니라고 하셨으니까 학술적 글쓰기에 따른 비판은 고려하지 않겠습니다. 님이 쓰신 글이 학술적으로 좋은 글이냐 아니냐는 그리 중요한 문제가 아니라고 생각합니다. 왜냐하면 인터넷에 자기 생각과 공부한 걸 올리는거니까요. 저도 학술 블로그도 하고 페이스북에 열정적으로 제가 공부하는 분야 이야기도 많이 올리고 합니다. 그런데 어떤 사람들은 별로 중요하지도 않은 포인트에 딴지를 걸고 제 글을 깎아 내리려 해서 감정이 상하기도 하지요. 저도 님 입장을 잘 이해합니다.
    그럼에도 불구하고 님의 오유글은 문제가 많습니다. 왜냐하면 특정 개념에 대한 서술이 정확하지 않기 때문입니다. 지도학습과 비지도학습, over-fitting에 대한 서술이 혼란스럽습니다. 어쩌다 어른 님이 처음에 지적하신 것이 이 부분입니다. 개념의 정의가 명확하지 않으면 그 뒤의 논의는 무의미해지니까요. 이는 학술적 글쓰기냐 일반적 글쓰기냐를 떠나서 중요한 문제입니다. 이는 지식의 상대성과 절대성을 떠나 매우 엄밀히 지켜져야하는 겁니다. 예를 들면 여성에 대해 정의하고 묘사할 때 피부가 매끈하며 머리카락이 길고 힘이 세다라고 하면 뭔가 굉장히 혼란스럽습니다. 이는 학술적인 측면에서도 틀렸지만 일반적인 여성의 특성과도 상당히 다릅니다. 어떤 사람이 여성을 묘사하며 피부가 매끈하며 머리카락이 길고 힘이 세다라고 하면 당연히 여성이 뭔지 아는 사람들은 그 설명에 대해 의문을 제기하고 비판할 겁니다. 나의 여성에 대한 정의는 이렇다고 우기실 문제가 아닙니다.
    제가 이렇게 댓글을 다는 것은 꼰대라서도 아니고 제가 이런 것도 아는 똑똑한 사람이라는 것을 과시하기 위함도 아닙니다. 인터넷에 혼란스러운 내용을 포함한 글이 돌아다니는 것을 우려해서 입니다. 정말 기분 나쁘게 할 의도는 전혀 없습니다.
    이기준
    이기준 그렇게 말씀하시니 제가 관심을 가지고 고칠 부분을 다시 생각해 보겠습니다. 좋은 말씀 감사합니다.
    그 댓글 다신 분을 포함해서 일부 한국 사람들은 자유로운 아이디어와 객관적 사실을 구분하지 못하는 것 같더군요. 제가 고지를 몇 번씩 해주어도 이해를 못하더군요.
    저는 처음에 일반인들에게 혼란을 줄 수 있으니 자제해야 한다 이 말을 보고 할 말을 잃었습니다.
    처음부터 그 분이 그냥 학계의 정설과 다른 부분을 지적해서 "이 부분이 자기가 알고 있는 것과는 다르니 알아보고 수정을 해주기를 바란다."이렇게 이야기 했다면 제가 그렇게 했을 것입니다. 그게 제가 원했던 피드백이기도 했구요.
    그런데 정확하지 않은 정보는 일반인들에게 피해를 줄 수 있으니 자제하라는 말을 보니 정신적으로 참 갑갑하더군요.
    이런 생각을 하는 사람들에게서 새로운 상상이 나올 수 있을까요? 생각을 하기도 전부터 다른 전문가는 어떻게 생각하는지, 다른 일반인들에게 어떤 영향을 끼칠지 고민해야 한다면 그 고정관념을 의식하고 자기검열을 하게 되지 않을까요?
    신민석님 의견은 전혀 저에게 문제가 되지 않아요. 저는 신민석님께는 고맙게만 생각합니다. 왜냐하면 신민석님은 "일반인 보기에 적합하지 않다.", "일지를 논문체로 쓰면 안된다."같은 말씀을 안 하셨으니까요.

    (BFT025)

  • 이기준 2016/12/22 21:44

    베스트 안 갈 줄 알았는데 또 보내 주셨네요.
    아무말없이 추천해주신 분들께 감사드립니다.
    앞으로도 연구 진행하게 되면 종종 정리해서 글 올릴게요.
    이번에 글 쓰면서 미흡하다고 지적받은 부분들을 반영해서 업데이트도 해볼게요.

    (BFT025)

  • BARDIEL 2016/12/22 21:49

    시비라기보다는요, 연구는 혼자 파고드는게 아니라는 말씀만 드리고 싶네요.

    (BFT025)

  • 착한_악마. 2016/12/22 21:56

    절대적인 체계라는 게 없다는 건 다 아는 사실이지만, 이미 쌓아올린 체계에서 한 번 정한 것을 바꾸기는 어렵죠.
    넘어가고, 다만 기계 (혹은 기계가 만들어낸 체계)를 우리가 보편적으로 통제하고 예측할 수 있느냐, 없느냐 (기존 체계나 다른 기계에 관한 호환성이 있느냐 없느냐)가 (정보가 필요하다면 완전공개)까다로울 텐데, 기계와 인공지능 로봇을 구분하는 단계에서 문제가 생길겁니다.
    인공지능이 우리와 함께 대화하고 이해할 수 있다면 적어도 우리 체계 안에서는 동등하다 봐야 합니다.
    저는 인류가 뒤에 쳐지지 않기 위해 기계에 제한을 걸거나, 인류를 구성하는 각 객체에 대한 발달절차를 진행하는 게 맞다고 생각합니다.

    (BFT025)

  • 겨털 2016/12/22 22:00


    본문까진 읽을수 있엇는데 댓글보니까...

    (BFT025)

  • 라제엘 2016/12/22 22:02


    ...???????

    (BFT025)

  • 니조랄 2016/12/22 22:03

    좋은글이긴 합니다만, 표현이 약간 공격적이라고 느껴지네요. (기계학습 꼰대라는식의....;)
    GPU를 통한 연산과 Relu, Backpropagation등의 큰 break through를 찾게되고, 그 유용성을 증명하면서 두각을 나타낸거죠.
    그전에는 분명히 상대적으로 성능이 좋지 않았고, 이론적으로는 매리트가 있으나 구현 및 적용시 한계가 있었기에 관심을 못받은것뿐이지,
    무슨 피해자처럼 얘기하는건 좋지 않다고 봅니다.
    어떤 분야, 연구이건간에 더 뛰어난 성과를 보이는 분야인 state of the art에 관심을 갖게 된 것은 자연스러운 것이죠.
    학계에서 천시받았다라 던가 차별받았다, 피해를 받았다라는 식으로 표현을 하시는데 한번쯤 생각해보시기 바랍니다.

    (BFT025)

  • 러빙스컬 2016/12/22 22:19

    감하합니다. 새로운 정보를 얻어 갑니다.

    (BFT025)

  • ALKALI 2016/12/22 23:29

    저도 잠깐 공부해봤었는데 제가 알고있는 정보와 달라서 여쭙고 싶은데요..
    중간에 강아지 사진 인식에 관해서 말씀하실 때
    초반부는 unsupervised learning이고 후반부는 supervised learning이라고 말씀하셨는데
    지금 딥러닝으로 image classification을 하는 경우는 전부 supervised learning 아닌가요?
    사진을 input x로, label을 output y로 설정해서 training data를 이용해서 함수 f를 추정하는 과정이라면
    이는 classification, 즉 이미 주어진 label을 사용해야만 f를 추정할 수 있기 때문에 supervised learning 일 것 같은데요.
    label이 주어져있지 않은 상황에서 학습하는 알고리즘이 물론 있겠지만
    현재까지는 대체로 supervised learning이라고 알고 있습니다.
    혹시 제가 잘못 알고 있는거라면 답변해주시면 감사하겠습니다.

    (BFT025)

  • /// 2016/12/23 00:02

    잘 읽었습니다. 비전공자인데 쏙쏙 이해가 되네요.
    헌데 보상(Reward) 개념이 자주 등장하더라고요.
    근데 컴퓨터가 보상이란걸 느낄리 없잖아요..?
    "잘 했으니까, 오늘은 P파ow워er를 추가 해주지!"
    절대 이런게 아닐텐데 말이죠.
    Reward 개념을 조금 쉽게 비전공자가 알 수 있게
    알려주시면 감사하겠습니다!

    (BFT025)

  • 코볼팅 2016/12/23 00:43


    오만 그 자체의 댓글이 딱 여기 있었네요 ㅋㅋㅋ
    이전 글에 좋게 댓글 달아준게 후회되고 짜증날 지경 ㅋㅋ

    (BFT025)

  • 강성훈 2016/12/23 00:59

    관심있는 분야라 흥미롭게 잘 읽었습니다.
    다만 작성자님은 개인적인 일지라고 하셨지만 글내용 자체가 학술적인 면도 많고 연구(논문)의 이미지가 강해서 관련 종사자나 전공자나 혹은 랩에 있는 사람이라면 충분히 지적할만한 글이었다고 봅니다.
    그걸 두고 전공하는 단체 혹은 개인이 자신들만 '절대적'이라 믿는 '고정관념'에 사로잡힌 사람이라고 표현하신다면, 그런 사람들의 의견을 부정하는 작성자님 역시 또다른 '고정관념'(=기존 연구자나 학자들은 꼰대화되었다)에 잡힌 것은 아닌지 우려됩니다.
    말씀대로 대학원은 치졸한 사회이고 저역시 몇 되지 않는 논문을 써본 석사 나부랭이 출신으로서 학계간 학설 충돌은 잘 이해하고 있으나, 그렇다고 해서 논문으로 나온 연구들이 "틀렸다"고 생각하진 않습니다. 본문에서 말씀하신대로 타인의 주장을 "기득권 학설적 태도"이라 배척하지 마시고 좀 유연하게 받아들이셨으면 좋겠습니다.
    그와 별개로, 저는 비전공자라 몹시 흥미롭게 잘 읽고 갑니다. 개인적으로 이런 도전적인 글 좋아합니다. 글이 긴편인데 적느라 고생 많으셨습니다.

    (BFT025)

  • 바비킴밥이킴 2016/12/23 01:02

    유머사이트에서 논문하나 읽은느낌이네 ㄷㄷ

    (BFT025)

  • 오뉴월같아라 2016/12/23 01:08

    아 글 너무 재밌어요 ㅋ
    특히 절대성 상대성 부분 얘기가 이해하는데 엄청 도움 되었구요
    컴퓨터 연산이 빨라진거 많은 데이터를 처리할 수 있게 된게 딥러닝의 필수 요건이었던거같아요
    제대로이해한게맞는지요 ? 제가말하는건 이 글에서 말하는 내용이랑 제가 이해한게 비슷하냐는 의미예요
    전에 멍멍이 고양이 구분하는걸 컴터가 못한다는 글을 불과 몇달전에읽었는데 그글은 현재 딥러닝의 상태를 모르고 쓴 글인듯 ..
    확률로 정한다 이것도 중요한 부분인거 같아요
    제가 전에 비슷하게 생각한게. 로봇 걷는걸 지시하지말고. 튼튼하고 여러방면으로 움직이는 로봇을 던져놓고 지가 알아서 엄청 움직이게 만든 다음에 예를들면 그로봇이 물리적으로 제일 위로 서있는 높이가 70센티다 하면 예를들어 60센티 이상으로 서있었던 조합을 걷는걸로 하자 이런식으로 로봇을 던져놔버리면
    그런식으로 로봇을 걷게하면 어떨까 하는 생각을 했었거든요. 그게 뭔가 멍멍이 데이터에서 지가 알아서 패턴을 수집하고 그 다음에 멍멍이 구분하는 것 처럼
    어느정도 이상의 정보처리가 가능해야 될거같고 뭔가 비슷한거같아요
    앞부분 잘 이해는 못했는데 딥러닝으로 어떤 결과가 나온걸 왜나왔는지 다 증명해내지 못한다는 부분이
    벌써 특이점이 온건가 하는 생각이 들어서 조금 소름돋았어요

    (BFT025)

  • BARDIEL 2016/12/23 02:13

    이전 글 읽어보니 딜레탕트 이상도 이하도 아니신거 같은데, 혹세무민 그만 하시고 쉬시죠...
    연역론은 무슨...

    (BFT025)

  • 유빛 2016/12/23 02:46

    몇 가지 지적하고 싶은 부분이 있습니다.
    첫째로, 딥러닝 연구의 많은 부분이 '이해가 없는' 상태에서 진행되는 건 맞습니다. 하지만 원리적으로 혹은 경험적으로 다각도로 분석한 논문들도 많이 나오고 있습니다. 다만 그런 논문들은 쓰기도 어렵고, 돈이 안되고 (세상에서 평가받는) 임팩트도 적기 때문에 비율상 적은 것 뿐이죠. 우려가 되는 건 이해가 없는 상태에서 진행되는 것이라기보다는, 다수의 (특히나 성과가 뛰어난) 연구들이 기업의 지원 하에 의해 진행되고 있고 그런 성과가 강조되기 때문에, 결국 연구에도 상업화와 양극화가 심해지고 있다는 점입니다. 연구의 '프랜차이즈화'랄까요. 대기업 빵집이 맛있고 싸고 대량으로 빵을 공급해서 인기를 끌 듯이, 연구에서도 다른 분야와 마찬가지로 동일한 현상이 일어나고 있을 뿐 입니다. 좋기도 하고 나쁘기도 하지만 다양성 측면에서는 치명적이죠. 원리적인 이해가 부족한 것은 언제나 그래왔기 때문에 핵심적인 문제는 아닙니다. 대중음악에서 아이돌의 존재 자체가 나쁜 것이 아니라, 아이돌이 무차별적으로 생산되면서 시장의 다양성을 죽이는 것이 문제가 되는 것처럼요.
    둘째로, '연역론'이라는 단어는 잘못 선택 되었다고 느낍니다. 연역이라는 단어에서 연역 추론 말고 연상할 수 있는 단어가 뭐가 있을가요? 그런데 바로 그 연역 추론은 논리적 추론, 즉, 이기준 님의 구준에서 봤을 때 절대론에 기반합니다. 철학의 합리주의와 경험주의의 대결에서도 볼 수 있듯이, 상대론은 연역론보다는 귀납 추론에 가깝고, 연역론보다는 귀납론이 상대적으로 적합합니다.
    셋째로, 민스키의 퍼셉트론과 XOR 문제 해결 불가능성에 대한 증명을 '막장 디스'로 한 마디로 표현하는 건 좀... 그렇군요.
    넷째로, 기존 용어로도 충분히 설명할 수 있는데도 너무 자의적으로 용어를 만들어서 쓰시는 듯 한데... 예를 들면, 절대성과 상대성에 대한 설명은 철학의 합리주의와 경험주의 전통으로 설명이 가능하고, 관련된 수많은 논의를 끌어오는 것으로 견고하게 만들 수 있습니다. 관계정보와 결과 정보도 '나는 확률적 그래프 모델에 기반해서 문제를 표현 하겠다'라던가 '신경망을 확률적 그래프 모델로 해석하겠다'라고 말하면 될 듯한데 굳이 새로 용어를 만들어서 쓰실 이유가... 특히, 존재규정이라는 용어는 조금 황당한데... 논리적 추론 모델도 연역에 기반할 뿐이지 관계성을 고려하는데요. 절차지향과 객체지향의 상대적 차이도 좀 그런게... 절차지향과 객체지향의 차이는 정보를 무슨 단위로 볼 것이냐지, 객체지향으로도 절차적인 처리가 나타나고, 이벤트 스케쥴러 입장에서는 객체지향도 절차에 반응하는 로직 덩어리일 뿐입니다. 결과지향과 확률지향이라는 단어는 frequentist냐 bayesian이냐로 표현해도 되구요. 직접 용어를 만들어쓰지 않으셔도 이미 약속된 용어가 충분히 있으며 그 용어가 함축하는 바도 많습니다. 직접 용어를 만드실 때는 기존의 용어가 왜 부적합한지, 그래서 새로 만들었는데 기존 개념에서 어떤 차이가 있는지를 알려주셔야 합니다.
    다섯째로, '이걸 왜 다른 과학자들은 안했지?'라고 하셨는데, 위에 용어에 언급되어 있듯이 신경망 분야에서, 확률론 분야에서, 그래프 분야에서, 철학에서 개별적으로 깊게 다루고 있는 주제이기 때문입니다. 그런데, 이 분야들에는 우열이 없습니다. 문제를 보는 방식의 차이가 있기 때문이죠. 그러다보니 '통합 이론'이 나오질 않은거죠. '연역론'이라고 하셨는데 '다중 학제적 분야의 통합 이론을 내가 만들었다!'라고 주장하실 때는 각 분야와의 연관 관계와 미싱 링크를 설명하셔야 합니다.

    (BFT025)

  • 똥의흐름 2016/12/23 03:07

    일단
    .

    (BFT025)

(BFT025)