검색엔진의 새로운 시대적 전환 : 제로 클릭 검색

해커 뉴스[1]를 보니 구글 검색에서 제로 클릭 검색이 전체 검색 트래픽의 절반을 초과했다는 소식이 있었다.

나는 ‘Zero Click Searches’라는 용어를 처음 들었는데, 이게 뭔 뜻인가 싶어 검색해보니, 용어만 몰랐지 사실 나도 예전부터 엄청 쓰고 있었던 기능이었다. 검색엔진에 검색한 이후에 원하는 정보를 얻었기 때문에, 굳이 검색 결과를 클릭하지 않고 넘어가는 상황을 의미한다고 한다. 예를 들어, 개인적으로 엑셀을 사용해야 하는 상황이 종종 생기는데, 귀차니즘 때문에-_- 무조건 함수와 스크립트로 자동화를 하는 경향이 있다. 근데 엑셀의 모든 스크립트와 함수를 알지 못하므로 검색에 의존하는데, 이 경우 예를 들어, ‘how to sum excel’ 따위를 구글링하면, 굳이 웹페이지를 클릭하여 보지 않고도 구글이 알아서 방법을 설명해 주기 때문에 검색 결과를 클릭할 필요가 없다.

이 제로 클릭 검색이 전체 검색의 절반을 돌파했다는 소식을 봤는데, 이제 슬슬 검색 엔진의 큰 패러다임이 바뀌는 게 아닌가 싶은 생각이 든다. 과거 page rank 알고리즘이라는 혁신적인 방법을 통하여 구글이 검색엔진의 성배를 석권한 이래로 검색엔진계를 재패해 왔는데, 이제 그런 시대는 가고 구글도 검색엔진으로서 정체성을 새롭게 확립해야 하는 게 아닌가 싶기도 하다.

생각해보면 그런 의미에서 이러한 스니펫을 일찌감치 도입한 네이버나 다음이 실질적으로는 시대를 앞서간(?) 검색엔진이 아니었나 싶은 생각도 들기는 한다. ㅎㅎㅎ 물론 인력에 의한 스니펫이 아니라 인공지능에 의한 스니펫이 앞으로는 검색엔진의 대세가 될 듯 하다. 우리 후대에서는 좀 더 자연어로서의 질문에 반응하고, 더 자연스러운 대답을 추구하는 검색엔진이 될 것이라는 점에서 구글신[2]에 더 근접하지 않을까 하는 망상이 든다. ㅋㅋㅋ 뭐, 술먹고 쓰는 글이라 개소리라 생각해주시길 바란다. ㅎ 여하간 내가 노인이 되었을 때의 검색엔진의 모습은 지금과는 또 사뭇 다를 듯 하다.

.


2019.10.21
위 글과 무관한 내용이긴한데, 딱히 포스팅 하나로 쓰기에는 영양가가 없어서 첨가함. ㅋ

구글 검색엔진에서 ‘recursion’을 검색하면 정정 제안으로 다시 ‘recursion’을 제시한다는 이야기를 듣고 검색해봤다.


진짜네-_- 이거 의도한건지 궁금해진다. ㅎㅎㅎ

.


[1] Fewer Than Half of Google Searches Now Result in a Click (hacker news)
[2] 내 백과사전 구글교 Church of Google 2010년 11월 19일

Google DeepMind가 중학 수학시험에 떨어지다

futurism 기사[1]를 보니 구글 딥마인드의 인공지능이 영국의 중학 수학시험 문제 풀기에 도전했지만 낙제한 듯 하다. arXiv에도 올라와 있다.[2]

물론 수학 문제는 자연어로 주어지고, 문제를 바탕으로 인공지능이 추론해서 답을 도출하는 형태의 시험을 시도한 듯 하다. 인공지능 모델은 단순 LSTM과 Attentional LSTM과 Transformer model을 썼다고 한다. transformer model은 처음 듣는 용어인데, 이 동네는 자고 일어나면 새로운 용어가 생겨나니 미치겠구만-_-

내 생각으로는 자연어 처리가 잘 되면 자연스럽게 이런 문제도 풀릴 것 같은데, 여하간 일단 완전한 인간 수준의 자연어 처리가 어려워서 국지적 문제에 도전하는 듯 하다.

수학문제가 어떤가 싶어 봤는데, 논문에 16세 수준이라고 언급[1;p4]되어 있다. 근데 Appendix B와 D에 샘플 문제가 있는데, 영국 나이로 16세면 한국의 고등학생 같은데, 문제가 좀 너무 쉬운 수준 아닌가??? 일전에 영국의 중학수학 수준이 내려가고 있다는 이야기[3]를 들었는데, 진짠가 모르겠다.

뭐 자신의 논리적 추론을 스스로 설명도 못하는 애들이 숫자맞추기 게임만 열라게 해대는 한국의 변태적인 선행학습으로 인하여, 내 생각에 편향이 생긴 것일 수도 있다. ㅎㅎㅎ

.


2019.10.27
마이크로소프트사의 lean theorem prover를 이용하는 인공지능으로 IMO 문제에 도전하는 대회가 있는 듯.[4] ㅎㅎㅎ

.


[1] futurism Google’s Best AI Just Flunked a High School Math Test April 6th 2019
[2] David Saxton, et al. “Analysing Mathematical Reasoning Abilities of Neural Models”, (Submitted on 2 Apr 2019) arXiv:1904.01557 [cs.LG]
[3] 내 백과사전 영국의 중학교 수학은 쉬워지는가? 2012년 6월 24일
[4] IMO Grand Challenge (imo-grand-challenge.github.io)

AlphaFold : 구글 딥마인드의 단백질 접힘 예측

대부분 소식을 이미 들으셨을 듯 하지만, 블로그에 기록차 남겨봄.

아미노산의 연결상태가 결정되면, 그 단백질이 어떻게 접혀서 3차원 구조로 만들어지는지가 거의 항상 결정된다고 들었다. 이런 접히는 3차원 구조를 예측하는 문제를 단백질 접힘 문제라고 한다. CASP라는 단백질 접힘을 예측하는 대회가 있는 줄 처음 알았는데, 위키피디아에 따르면 2년에 한 번씩 열린다고 한다. 올해가 13번째 개최라서 CASP13이라 부르는 것 같다.

구글의 딥마인드가 CASP13에 A7D라는 팀명으로 참가한 모양[1]인데, 여기서 최고 득점을 올리고 있는 듯[2]하다. 근데 표를 보는 법은 하나도 모르겠다-_- 여기 z-score가 정규분포의 표준화한 값을 말하는 건가??? 뭐 여하간 제일 점수가 높은 게 제일 잘하는 거겠지 뭐-_-

구글 딥마인드 홈페이지[1]에 대략적 설명이 있는데, 일단 상업적 용도를 생각하지 않고, 미지의 분야에서 다른 방법을 가지고 뛰어드는 모습이 대단하다고 생각한다. 이런건 빅테크 기업들이 아니면 어렵지 않겠나 싶다. 근데 이제 단백질 접힘 화폐[3]는 망한 건가-_-

단백질 접힘 자체도 문제지만, 이것은 연구의 출발점일 뿐이라는 Mad Scientist 선생의 페북 코멘트[4]도 참고바람. 지금 보니 해커뉴스[5]에서도 올라왔었네. 왜 못 봤지. ㅋ 방법이 좀 불명확하다고 회의적인 시각도 있는 듯 하다.

.


2018.12.6

.


2018.12.8
science Google’s DeepMind aces protein folding Dec. 6, 2018 , 12:05 PM

.


2018.12.9
[바이오토픽] 구글 딥마인드의 최신병기 알파폴드(AlphaFold), 단백질의 3D 형태 예측 (ibric.org)

.


2018.12.10
구글이 알파폴드의 소스코드를 공개할 예정이 없다고 하던데[6], 그동안 큰 진전이 없던 CASP에서 지난 CASP11, CASP12동안은 진보를 보인 만큼[6], 그들의 이번 결과는 특별한 진보적 방법을 사용한게 아니라 구글의 막대한 컴퓨팅 파워에 기반을 두고 있을 가능성도 있다. 소스코드를 공개하지 않는 이상, 그들의 업적에 너무 과찬을 할 필요는 없을 듯 하다.

.


2018.12.15

Posted by Taeho Jo on Tuesday, December 11, 2018

.


2019.2.19

.


2019.3.25
MIT news Model learns how individual amino acids determine protein function March 22, 2019
인공지능 신문 신경망(CNN)으로 단백질 자동 설계 위한 알고리즘 개발 2019.03.24 09:09

.


2019.4.23
하바드는 구글과는 다른 어프로치를 하는 듯 함.[7,8]

.


[1] AlphaFold: Using AI for scientific discovery (deepmind.com)
[2] TS Analysis : Group performance based on combined z-scores (predictioncenter.org)
[3] 내 백과사전 단백질 접힘 화폐 FoldingCoin!! 2015년 1월 30일
[4] https://www.facebook.com/madscietistwordpress/posts/1159689967511753
[5] AlphaFold: Using AI for scientific discovery (hacker news)
[6] AlphaFold @ CASP13: “What just happened?” (moalquraishi.wordpress.com)
[7] Folding Revolution (hms.harvard.edu)
[8] Mohammed AlQuraishi, “End-to-End Differentiable Learning of Protein Structure”, cell systems, Published:April 17, 2019 DOI: https://doi.org/10.1016/j.cels.2019.03.006

수학도에게 아쉬운 구글 플러스 서비스 종료

원체 마이너한 소셜 네트워크 서비스라서 대부분 관심들이 없으시겠지만 ㅋㅋㅋㅋ 구글 플러스 서비스가 종료된다고 한다. 그것도 개인정보 유출 버그가 생긴 데다, 그걸 감추려고 뻘짓거리까지 하다니 완전 똥이구만. 한겨레 기사[1]가 꽤 상세해서 볼만하다. 뭐 조세회피가 자랑스럽다고 할 때[2]부터 구글교[3]는 버렸지만-_-

그렇지만 수학도들에게는 꽤나 아쉬운 상황이 되었는데, 굵직한 수학자/물리학자들이 (이유는 모르겠지만-_-) 구글 플러스를 많이 썼다. 타오 선생, 가워즈 선생, 바에즈 선생은 확실히 최근까지 썼었고, 스테인 선생, 엘렌버그 선생도 몇 년 뜸하긴 했지만 나름 재밌는 포스팅이 많았다. 학자는 아니었지만 수학쪽으로 학술적 포스팅을 많이 했던 하드 sf 작가 그렉 이건 선생도 있다.

타오 선생은 구글 버즈 시절부터 써온 구글 SNS의 충실한 사용자였는데, 어디로 가실려나 모르겠구만. ㅎㅎ 모르긴 해도 타오 선생과 가워즈 선생 덕분에 수학도들은 구글 플러스 많이 썼을 듯 하다. ㅋ

본 블로그에서도 여러 선생들의 구글 플러스 포스팅을 인용한 글이 꽤 되는데, 다 사라질 예정이라니 아쉽구만. 나름 포스팅거리를 찾을 수 있어 좋았는데, 이제 나는 어디서 포스팅거리를 찾아야 한단 말인가… 흑.

구글 플러스와 페이스북의 전쟁은 이미 구글 플러스 서비스 출시 첫날에 승패가 갈렸다고 생각한다. 카르타고가 진짜 멸망했구만 ㅋㅋ[4]

.


2019.4.21
arstechnica Google+ is back! Meet the enterprise-focused “Google Currents” 4/12/2019, 2:14 AM

.


[1] 한겨레 “구글플러스 사용자는 내년 8월까지 데이터 옮겨두세요” 2018-10-09 18:25
[2] 내 백과사전 에릭 슈미트, “조세회피가 자랑스럽다” 2012년 12월 16일
[3] 내 백과사전 구글교 Church of Google 2010년 11월 19일
[4] 내 백과사전 2011년 페이스북의 내부 분위기 2018년 1월 25일

구글 홈 간단 사용기

과학기술은 자고로 국경이 없어서, 중국의 짝퉁 기술 카피캣 전략이 먹힐 때가 많았다. 근데 자연어 처리 만큼은 국경을 넘는 것이 쉽지 않아서, 중국의 스마트 스피커 개발에 애로사항이 많다는 기사를 예전에 본 적이 있었는데, 도통 출처가 기억이 안 나네-_- 여하간 구글이 아무리 엄청난 기술기업이라서 다른 건 다 앞서갈 수 있어도, 한국어 처리 능력만큼은 엄청난 우위에 있지는 않을 듯 하다. 다만, 한국어 음성인식만큼은 초창기부터 선보였으니 꽤 앞서있을 듯 하긴 하다. ㅋ

오늘 구글 홈 한국 정발 물건을 받아서 잠시 소감을 써봄. ㅋ 원래 한국어 어시스턴트가 똥같은 남자 목소리였기 때문에-_- 안 사려고 했는데, 걍 일본어로 쓰면 될 것 같고 성능도 궁금해서 사봤음. ㅋㅋㅋ 참고로 일본어 구글 어시스턴트는 여자 목소리로 나온다. ㅋㅋㅋㅋ

아답터가 놀랍게도 16.5V 2A (외경/내경 3mm/1mm 정도)였는데, 여러가지 노트북/모니터 등등을 봐 왔지만 이런 요상한 볼트수를 쓰는 가전제품을 본 적이 없다. 아마존 에코[1]는 15V를 쓰기 때문에 아답터가 고장나거나 마음에 안들면 간단히 대체품[2]을 찾을 수 있지만, 이건 아답터 고장나면 답이 없을 듯. 뭐 아답터가 쉽게 고장날 물건은 아니지만, 오래써서 죽는 아답터를 세 번 정도 본 적이 있다. ㅎ

가장 실망한 부분은 hotword의 인식능력이었는데, 일단 아마존 에코에 비해서 현저하게 인식력이 떨어진다. 에코는 스피커에서 뉴스가 나오든 음악이 나오든 ‘알렉사’라는 단어는 귀신같이 알아듣는데-_- 구글 홈은 뉴스가 나올 때 hotword를 초 못 알아 듣는다. 와. 이럴수가. 이걸 이렇게 써 본 사람이 하나도 없나?? 웨이브[3]보다 더 떨어지는 느낌이다. ‘오케이 구글’에서 한 글자라도 발음이 불명확하면 생깐다-_- 사실 이게 별거 아닌 듯 하지만, 사람의 생활을 풍요롭게 하고자 쓰는 물건인데, 출근하기전에 대충 말해서 날씨 듣고 오늘 뉴스 대충 듣고 나가려는데, 인식 안돼서 번거롭게 사람의 인지를 소모하게 되면 주객전도나 다름이 없다. 본인은 자다가 깨서 눈앞이 잘 안보이는 비몽사몽일 때, 몇 시냐고 물어서 시간을 확인할 때도 있다. 이처럼 생활 속에서 자연스럽게 물흐르듯이 옆에 항상 대기하는 비서처럼 사용해야 한다면, hotword에 강해야 한다고 본다.

여하간 기본적으로는 구글 어시스턴트와 성능이 같으므로, 얼마나 유용할지 구입이전에 확인하고 싶다면 구글 어시스턴트로 확인해보는 것이 좋을 듯 하다. 일전에 본 웨이브의 맥락 인식 기능[4]도 되는 듯.

에코에는 ‘오늘의 화제는?’과 같이, 알아서 불특정 정보나 잡지식, 달력일정 등을 큐레이션 해주는 기믹들이 좀 있는데 그런게 좀 적어서 아쉽다. ㅎ

오직 스피커로서의 소감을 말해보라면, 우퍼가 꽤 세서 음악 듣기에는 좋은데, 이 덕분인지 몰라도 정작 어시스턴트의 목소리가 매우 탁하다.

구글도 사실 아마존이 열어놓은 시장을 따라가는 카피캣의 입장이니만큼 아마존보다 더 나은 모습을 보여야 맞지 않나 싶은데, 아직까지는 아마존 에코에 점수를 더 주고 싶다. 에코 스팟[5]을 써보니, 스마트 스피커가 앞으로 이렇게 변하겠구나 싶은데, 역시나 구글이 또 카피캣을 한다는 기사[6]가 나왔다. 아마 국내 스피커도 따라가지 않을까 싶구만.

.


2018.9.22
wave나 echo에 비해 단어만 던지는 명령들은 굉장히 인식률이 낮다. ‘中止’라고만 말하면 거의 못알아 듣고 ‘中止して’라고 말하면 알아듣는다. 중지, 재생, 다음 등등 이런 게 몇 개 있다. 아무래도 2개 국어를 인식해야되다 보니 이런 오작동을 하는 듯 한데, 좀 아쉬운 부분이다.

.


2018.9.23
갑자기 뉴스를 읽는데 에러난다. 구글 홈이 여태까지 써 본 스마트 스피커 중에서 제일 스트레스 받을 때가 많다. 와 이럴 수가 있나. 사용자 측면에서 봤을 때 구글 홈이 제일 완성도가 떨어진다.

.


[1] 내 백과사전 아마존 에코로 선풍기 음성 제어 ㅋㅋ 2018년 4월 7일
[2] 태영전자 15V 1.5A 정전압 SMPS 직류전원장치 아답터 (auction.co.kr)
[3] 내 백과사전 네이버 wave 사용 소감 2018년 9월 8일
[4] 샐리야, 송혜교 몇 살이야? (youtube 36초)
[5] 내 백과사전 아마존 에코 spot 두 개 사용소감 2018년 9월 4일
[6] 화면 달린 AI 스피커, ‘구글 홈 허브’ 나온다 (bloter.net)

구글 duplex는 사기인가??

며칠 전에 구글이 초 사람처럼 전화를 할 수 있는 봇을 소개[1,2]해서 사람들을 완전 깜짝 놀래켰다. 뭐 이 블로그 방문자들은 대부분 보셨을 테니 내용은 생략합시다. ㅋㅋ

딱봐도 여태까지 신문기사 등에서 호들갑을 떨었던 인공지능을 이용한 무슨무슨 작업 등등등등의 기술적 수준과는 너무나 차이나는, 기술적 퀀텀 점프라서 초 놀라지 않을 수 없는데, 심지어 튜링 테스트를 통과했다는 주장[3]까지 나올 정도다. ㅋㅋㅋ 뭐 튜링 테스트는 이미 애슐리 메디슨이 통과[4]한 거 아닌가-_- ㅋㅋㅋㅋㅋㅋㅋㅋ

뭐 그러다보니 의심의 눈초리가 여기저기서 나오는 듯 하다. 해커뉴스[5]를 보니 왜 시연장에서 라이브로 실시간 전화를 거는 걸 보여주지 않고, 녹음된 걸 보여주는 걸까 하는 John Gruber라는 사람이 쓴 블로그 글[6]이 일전에 올라왔었다. 뭐 이건 상대를 속이는 일이라 동의가 필요해서 그런 것 같기도 하고…

extremetech 기사[7]에는 더 많은 의문점들이 제시되어 있다.

  1. 전화를 받은 미장원 직원이 가게 이름과 자기 이름을 대지 않았다. 기사[7]에 따르면 실제로 마운틴 뷰 지역을 포함한 20군데 이상의 미장원에 전화를 걸어보니까 모든 가게에서 전화 즉시 가게 이름을 댔다고 한다.
  2. 배경 노이즈가 전혀 없다. 이건 뭐 구글측에서 듣는 사람들이 잘 들리도록 지울 수도 있지 않을까 싶기도 하고…
  3. 예약을 받는 사람이 예약자의 전화번호 등의 정보요청을 하지 않았다. 이건 좀 이상한 듯 하다.

뭐, 구글이라는 대기업이 설마 사기 시연회를 했으리라고는 생각하기 힘들지만, 세상일이라는게 또 모르는 법이다-_- 지금까지 본 기술수준보다 납득할만큼 적당히 높아지면 흥분도 되고, 기대도 되고, 뭐 그런 법인데, 현존기술에 비해 너무 기술의 격차가 심하게 진보한 기술은 당연히 의심이 들게 마련이다. 개인적으로는 구글측에서 충분한 해명을 준비하기를 기대한다. ㅋ

.


2019.3.10
글로벌이코노믹 구글, 레스토랑·미장원예약 AI비서 ‘듀플렉스’ 美 전역 서비스 2019-03-09 10:37

.


2019.8.29
지디넷 [영상] 네이버 ‘인공지능 ARS’로 식당 예약해보니 2019/08/27 14:11

 


[1] Google Duplex: An AI System for Accomplishing Real-World Tasks Over the Phone (google AI blog)
[2] Google Duplex : 전화를 통해 실제 업무를 수행하는 AI 시스템 (nextobe.com)
[3] extremetech Did Google’s Duplex AI Demo Just Pass the Turing Test? [Update] May 9, 2018 at 3:41 pm
[4] 내 백과사전 애슐리메디슨이 보여준 튜링 테스트의 가능성 2015년 10월 9일
[5] [flagged] A little Duplex scepticism (hacker news)
[6] A LITTLE DUPLEX SKEPTICISM (daringfireball.net)
[7] extremetech Did Google Fake Its Duplex AI Demo? May 18, 2018 at 3:40 pm

구글의 자연어 처리 오픈소스 SyntaxNet

구글에서 자연어 처리 오픈소스인 SyntaxNet을 발표했다는 소식은 구글 리서치 블로그[1]에서 이미 들은 바 있는데, 그 글을 번역한 어느 블로거의 고마운 글[2]이 있어 걍 링크해 본다. 본인과 같은 영어 울렁증 환자에게 큰 도움이 된다. ㅋㅋㅋ

일전에 gaussian face이야기[3]를 했지만, 자연어 처리라든지 얼굴 인식이라든지 컴퓨터보다 인간이 우월한 다양한 분야에서 기계학습이 적용되고 있는 것 같다. 아마 SyntaxNet을 이용한 암 연구[4]를 할 수 있을 지도 모른다.

위 블로그의 글[2]에 왜 자연어 처리가 어려운지 짧은 설명이 있다. 인간이라면 쉽게 배제할 수 있는 두 번째 해석을 기계가 배제하기 어렵기 때문이라는 이야기가 나온다. 개인적인 생각으로는, 제대로 된 자연어 처리라면 인간과 동일하게 ‘차안에 거리가 위치하는 것은 말이 안 되므로 이 해석을 배제한다’라고 semantic approach가 있어야 한다고 본다. 구글은 두 번째 해석의 배제를 위해 기계학습을 이용하고 있지만, 이는 자연어 처리의 문제를 언어만으로 해결하려고 하기 때문에 나오는 미봉책이 아닌가 싶다. 진정한 자연어 처리를 하려면, 인간이 가진 대부분의 보편적 상식을 기반으로 하는 머신이 반드시 필요할 것이다.

 


[1] Announcing SyntaxNet: The World’s Most Accurate Parser Goes Open Source in Google Research Blog
[2] Google 자연어 처리 오픈소스 SyntaxNet 공개 by CPUU
[3] 내 백과사전 인간의 능력을 넘어서는 안면 인식 알고리즘 : GaussianFace 2014년 4월 24일
[4] 내 백과사전 자연어 처리를 통한 암 연구 2016년 4월 30일

딥마인드: 구글 슈퍼 두뇌의 내부

어느 분이 시간을 들여 읽을만한 가치가 있는 기사[1]를 번역[2]해 주셨다. 개인적으로 엘론 머스크나 스티븐 호킹의 인공지능에 대한 경고[3,4]는 완전히 개소리라고 생각했는데, 하사비스 선생은 (공식적인 인터뷰라서 완곡어법을 썼지만) 아마 나와 같은 의견일 듯 하다. ㅋㅋㅋ

한편 글[2] 중간에 이런 내용이 있다.

하사비스가 다니던 학교에서는 지난 수년간 아무도 옥스브리지에 진학시키지 못 하였었습니다. 15살의 하사비스는 준비도 하지 않았던 퀸스 대학교 입학 면접을 보게 되었습니다. “아주 추운 날이었어요. 면접관인 교수님은 컴퓨터 공학과 관련된 질문을 하였는데요, 30개의 대학을 모두 방문하려면 경우의 수가 몇 개나 되지?라는 질문이었어요. 제가 30팩토리얼이라고 대답하자 ‘그래서 그게 얼마?’라고 그가 되물었어요. 속으로는 뭐라고? 30 팩토리얼을 어떻게 계산하라는 거지?라고 생각했지만 곧바로 정답에 거의 근접한 10의 25승이라고 답했어요. 그러자 그 교수는 깜짝 놀랐죠. 제가 ‘아주 큰 숫자요’라고 답할 것이라 예상했었을 테니까요.. 그분한테 어떻게 계산했는지 알려주지는 않았지만, 30 팩토리얼이 얼마인지 알게 된 건 수학 A과정 수업시간이 지겨워서 공학용 계산기를 먹통으로 만들 수 있는 가장 짧은 수를 찾곤 했었거든요. 그게 60팩토리얼이었고, 30팩토리얼은 그 값으로부터 역산한 것이었어요.

이게 어떻게 가능한 건지 내 짧은 머리로는 이해가 되지 않는데-_- 60!의 근사치로 30!의 근사치를 어떻게 역산(그것도 암산인 듯?)하지????? 천재는 천재인 듯-_-

 


2016.3.20
생각해보니 간단한 듯-_-
a=1\times 3\times 5\times \cdots \times 59 < b=2 \times 4\times 8\times  \cdots \times 60 < 1\times 3 \times 5 \times \cdots \times 61 =61a 이니까 a와 b는 61배 이상 차이 나지 않으니 60! \approx 10^{81} 을 반띵하여 a \approx 10^{40}, b \approx 10^{41} 이라 두면 b=30! \times 2^{30} \approx 30! \times 10^9 이므로 30! \approx 10^{41-9}=10^{32}

 


2017.6.17
한국일보 체스 신동은 어떻게 ‘알파고의 아버지’가 되었나 2017.06.17 04:40

.


2019.3.15
1843 매거진에 하사비스 기사[5]가 있던데, 좀 길지만 읽어볼만함. 하사비스 어릴 적 이야기부터 근래 딥마인드 행보까지 나와 있음. 피터 틸이 딥마인드에 엄청 큰 투자를 해서 5000% 수익을 낸 줄은 처음 알았네. 이 쉐이가 얍삽하긴해도 사람 보는 눈은 있는 듯. ㅎㅎㅎ

.


2019.3.17
DeepMind와 Google : 인공 지능을 통제하기 위한 싸움 (editoy.com)

.


2019.8.20
눈덩이 처럼 불어나는 딥마인드의 적자에 비친 AI의 미래 (techit.kr)

 


[1] 와이어드 DeepMind: inside Google’s super-brain Monday 22 June 2015
[2] 딥마인드: 구글 슈퍼 두뇌의 내부 (masterfarseer.blogspot.kr)
[3] 테크크런치 Elon Musk Compares Building Artificial Intelligence To “Summoning The Demon” Oct 26, 2014
[4] BBC Stephen Hawking warns artificial intelligence could end mankind 2 December 2014
[5] 이코노미스트 1843 DeepMind and Google: the battle to control artificial intelligence APRIL/MAY 2019

넥서스 5X를 구입하다

근래 하이엔드 사양의 넥서스 6P와 보급형 사양의 넥서스 5X가 발매되었다. 전자는 화웨이가 만들고 후자는 LG가 만든다. 본인은 대부분의 모바일 사용을 엑스페리아 z4 태블릿[1]으로 하고 있기 때문에, 휴대폰의 하이엔드 스펙이 딱히 필요하지는 않았지만, 그래도 궁금해서 함 사봤다. 플레이스토어에 6P는 판매를 아직 하지 않고 있어서 걍 5X를 샀다.

오늘 배송이 와서 아직 개통은 안했고 잠시 써본 느낌만 서술한다.

1. 5X는 보급형이라 사양이 높지 않다. 스냅808이라고 한다. 사양이 과거에 출시된 구넥5[2]와 비슷해서 사람들이 별로라고 생각하는 듯. 구넥5와 비교하면 5X는 크기가 살짝 더 크다.

2. usb type-c를 쓴다. 동봉된 케이블의 양 끝이 모두 usb type-c라서 컴퓨터와 연결하려면 케이블을 별도로 사야 한다. 동봉된 아답터는 출력 전류량이 3A짜리라서 충전은 빨리 될 듯. 두께 때문에 무선충전이 없어져서 몇몇 사람들이 아쉬워 하던데, 본인은 전혀 안 쓰는 기능이라서 잘됐다. ㅋㅋ

3. 지문인식 이거 좀 편하다. 뒷면의 원판에 손가락을 대고 꾹 누르는 느낌을 주면 순간적으로 잠금해제된다. 본인은 안면인식 잠금해제를 꽤 오래동안 써 왔는데, 지문인식으로 바꿔야겠다.

4. 본인이 쓰던 유심은 마이크로인데, 이건 나노 유심이라서 크기가 안 맞다. 새로 사야 할 듯.. 흑.

5. OS는 마시멜로다. 뭐 마시멜로의 특징은 익히 알려져 있으니 넘어가자. ㅋ

 


2015.11.21
유선을 이용한 hdmi 미러링은 지원하지 않는다[3]고 한다. 어쩐지 슬림포트에 연결해도 안 되더라. 이건 아주 좋지 않다고 본다.

 


[1] 내 백과사전 소니 엑스페리아 z4 태블릿을 구입하다 2015년 6월 18일
[2] 내 백과사전 넥서스 5를 구입하다 2013년 11월 21일
[3] https://www.reddit.com/r/IAmA/ … h_the/cvjjprr