스마트 스피커의 ダジャレ 성능비교

it media news 기사[1]를 보니 4종의 스마트 스피커의 말장난(ダジャレ) 성능을 비교하고 있다. ㅋㅋ 4종은 구글 홈, 아마존 에코닷, 애플 아이폰의 시리, 라인 클로버 웨이브이다. 일본 라인에서 클로버라는 제품을 출시한 줄은 몰랐네 ㅋ

ダジャレ란 homophone으로 문장을 만드는 아저씨 개그를 말하는데-_- homophone때문에 직장에서 해고당한 사람[2]도 있으니 함부로 보지 말자-_- ㅋㅋ

구글이랑, 알렉사는 네타가 꽤 많은데 클로버는 별로 없는 듯-_- 시리는 부끄럽다고-_- 농담하는 걸 계속 거부하다가 마지막에 冗談なんてSiriません。하고 말장난 한다. 비싼 여자구만-_- ㅋㅋ

기사[1]에서 마지막으로 스마트 스피커에게 布団が吹っ飛んだ。라고 말장난을 해 봤는데, 알렉사와 구글은 무슨 말인지 못알아 들었는데, 시리는 어이없다는 식으로 대답하고-_- 클로버는 자기도 ダジャレ로 응수한다. ㅋㅋ

본인은 스마트 스피커가 없지만 때마침 아이패드[3]가 있어서, 한국어 설정으로 시도해 봤는데, Siri가 문장 이해를 못한다…. 아놔-_-

그래서 일본어로 시리 언어설정을 바꾸니, 이번에 몇 번 거부하더니 冗談なんてSiriません。라고 기사[1]하고 똑같은 말장난을 한다. 이런… 시리는 네타가 거의 없는 듯.. ㅋㅋ 시리에게 トイレにいっといれ 라고 말장난을 해 보니 座布団10枚!라고 응수한다. ㅎㅎㅎㅎ

언어설정을 영문으로 바꾼 후 Tell me a pun이라 명령하면 못알아 듣고 Tell me a joke라 하면 get Siri-ous, Ha ha! 라고 대답한다. ㅋ 한 번 더 물으니 The past, present and future walk into a bar. It was tense.라고 대답한다. ㅎㅎ 한 번 더 물으니 I don’t think you’d understand a joke in my language. They’re not so funny. anyway라고 오해한다. 이런-_- 난 아저씨 개그에도 웃는다고! ㅋㅋㅋㅋ

본인이 봤을 때, 종합적인 ダジャレ 성능은 네이버의 클로버가 가장 높은 게 아닐까 싶다. ㅎㅎㅎ

 


[1] it media news スマートスピーカーはダジャレが好きか? 2018年01月22日 09時46分
[2] 내 백과사전 Homophone 때문에 해고당한 사람 이야기 2014년 8월 7일
[3] 내 백과사전 아이패드 프로 12.9 (2세대)를 구입하다 2017년 10월 13일

Advertisements

Alexa가 불러주는 노래-_-

국내에도 다양한 스마트 스피커가 발매되었다고 하던데, 일본에서는 알렉사가 정식으로 발매되어 있다. 아마존이 일본에서 장사 잘되니 나름 공 들이는 듯? ㅋ 나도 일마존에 알렉사 스피커를 주문하려고 시도해 봤는데, 자기네들이 팔 때까지 대기하라네??? 이 쉐이들 너무 잘 팔려서 배짱 장사 하는가-_- 싶긴한데, 여하간 11월 25일부터 여태까지 대기 중이다-_-

it media news 기사[1]를 보니 알렉사에게 ‘노래해줘’라고 말하면 부르는 노래[2]가 있다고 한다. 함 들어보자-_-

가사는 다음과 같다. 본인이 대충 발번역 했다. ㅋㅋ

テクノロジー テクノロジー
なくてはならない テクノロジー
Wi-Fiなしじゃ しゃべれない 音楽だって 選べない
どうしたらいいの お買い物 今何時か言えない
今日も元気 それに感謝しよう そう思うでしょ?
だから 1、2、3で歌おう
テク テク テク テク テクノロジー Uh- Uh- テクノロジー

테크놀로지~~ 테크놀로지~~
없으면 안되는 테크놀로지~~
Wi-Fi없으면 말을 못해~~ 음악조차 못 골라~~
어떡하면 좋지 장보기 지금 몇시인지 말을 못해
오늘도 활기차게 그것에 감사하자. 그렇지 않나요?
그러니 하나 둘 셋에 노래하자
테크 테크 테크 테크 테크놀로지~~ 우~ 우~ 테크놀로지~~

쓸데없이 웃긴다-_- ㅋㅋㅋㅋㅋ 노래 잘 부르네 ㅋㅋㅋ 와이파이 없으면 자긴 깡통이라고 말하는 인공지능이라니 ㅋㅋ

알렉사에 미쿠 목소리가 나오는 플러그인이 있다[3]길래 함 써보고 싶은데, 살 수가 없네-_- 아 돈 줄테니 물건 달라고!!!

 


2017.12.29
인제는 백인일수도 읊는 구만-_-[4]

 


[1] it media news 「Alexa、歌って」――スマートスピーカーが歌う「Wi-Fiに感謝するうた」が切ない【楽譜書き起こし】 2017年12月19日 16時26分
[2] https://www.youtube.com/watch?v=F7m6_oHmvoA
[3] gigazine 初音ミクと会話ができるAlexaスキル「Hey MIKU!」をAmazon Echoで試してみた 2017年11月24日 09時00分00秒
[4] it media news Alexa、百人一首を読む 2017年12月29日 11時46分

1픽셀로 deep neural network를 무력화 하기

해커뉴스[1]에 흥미로운 arxiv의 논문[2]을 소개하고 있다. 이미 댓글이 꽤 달린 듯. 해커뉴스[1]에는 논문 내용과는 별개로 흥미로운 논쟁들이 이어지고 있다.

여하간 대충 봤는데, 본인의 짧은 지식으로 이해한 내용은 이러한 듯 하다. deep neural network가 이미지를 분류하는 능력을 가지려면 이미지를 사전에 학습시켜야 된다. 이미지를 n차원 벡터공간에 두면 어떤 기하학적 대상이 되는데(hyperplane이라 생각해도 좋을 듯) 사전 분류된 이미지 hyperplane들의 intersection을 잘 찾아서 그 부분만 살짝 수정한 새로운 이미지를 판정하게 하면, 판정실패율이 극적으로 올라간다는 내용 같다. 심하면 단 1픽셀의 수정만으로도 실패율이 70%이상 극적으로 상승하는 듯 하다. 겨우 1픽셀이 수정된 것으로는 인간이 판정할 때는 전혀 영향이 없지만, deep neural network는 큰 오작동을 하게 되는 것이다.

애초에 딥러닝이 뜨게 된 계기가, 이미지 판정분류가 기존의 알고리즘보다 월등히 우수해서[3]였는데, 이런 본래의 장점을 희석시키는 공격법이 나올줄은 몰랐네. ㅎㅎ 연구자들은 학습데이터를 매우 잘 골라야 하는 문제가 있을 듯 하다.

논문 저작자가 모두 규슈 대학 소속이던데, 일본에서 딥러닝을 은근히 연구 많이 하는 것 같다. MIT프레스의 유명한 온라인 딥러닝 책[4]도 일본어로 번역[5]돼 있다. 구글 연구원인 Christopher Olah씨의 블로그 글[6]을 일본어로 번역한 블로그[7]를 봤을 때는 좀 놀랐다. ㅎㅎ

 


2017.12.22
비전 알고리즘을 속이는 연구가 꽤 많은 듯?[8,9,10]

 


[1] https://news.ycombinator.com/item?id=15577885
[2] Jiawei Su, et al. “One pixel attack for fooling deep neural networks”, arXiv:1710.08864 [cs.LG]
[3] 2012년 이미지넷에서 알파고까지… 딥 러닝의 모든 것 in 엔비디아 공식 블로그
[4] http://www.deeplearningbook.org/
[5] http://www.deeplearningbook.me/
[6] Neural Networks, Manifolds, and Topology by Christopher Olah
[7] ニューラルネットワーク、多様体、トポロジー by KojiOhki
[8] MIT tech review Computer Vision Algorithms Are Still Way Too Easy to Trick December 20th, 2017 1:38PM
[9] Attacking Machine Learning with Adversarial Examples in openai.com
[10] ieee spectrum Hacked Dog Pics Can Play Tricks on Computer Vision AI 22 Dec 2017 | 15:00 GMT

generative adversarial network로 생성한 고해상도 인물 이미지

해커뉴스[1]에서 신박한 동영상[2]을 봐서 걍 포스팅해봄. ㅋ

generative adversarial network라는 비지도 기계학습 알고리즘이 있다고 한다. supervised/unsupervised의 차이는 미디엄의 어느 글[3]에 잘 설명돼 있다. 여하간 위키피디아의 설명에 의하면 GAN이 매우 사실적인 이미지를 생성해내는데 자주 쓰이는 것 같다. 백문이 불여일견 아니겠나-_- 재생시간 6분 10초

1024×1024면 나름 꽤 큰 이미지인데, 너무 사실적이라 눈을 믿을 수 없다. 헐… 충분히 발달한 기술이 마법처럼 보이는구만-_-

이 영상은 6번째 특성학습 국제 컨퍼런스(ICLR 2018)[4]에서 발표된 모양인데, 네 명의 엔비디아 직원이 쓴 논문[5]의 참고자료로 돼 있다.

저거 이미지 생성하는데 연산량이 어느 정도인가 궁금했는데, 논문[5;p7]을 보니 NVIDIA Tesla P100을 한 개 사용하였을 때, 작동 시간 그래프가 나와있다. 대략 90시간 정도 걸리는 듯.

GAN의 원리가 뭘까 궁금했는데, 이를 설명하는 매우 친절한 어느 블로거[6]가 있었다. 설명을 이해하기 쉽게 엄청 잘 하시는 듯.

 


2017.11.10
Bayesian GAN[7]은 또 뭐냐-_-

 


[1] https://news.ycombinator.com/item?id=15574079
[2] https://www.youtube.com/watch?v=XOxxPcy5Gr4
[3] 기계 학습(Machine Learning, 머신 러닝)은 즐겁다! Part 1 by Jongdae Lim
[4] http://www.iclr.cc/
[5] Tero Karras, Timo Aila, Samuli Laine, Jaakko Lehtinen, “Progressive Growing of GANs for Improved Quality, Stability, and Variation“, Published in: Submitted to ICLR 2018, Published date: October 27, 2017
[6] 초짜 대학원생 입장에서 이해하는 Generative Adversarial Nets (1) by Jaejun Yoo
[7] Yunus Saatchi, Andrew Gordon Wilson, “Bayesian GAN”, arXiv:1705.09558 [stat.ML]

한국어 word2vec 서비스

일전에 MIT tech 기사[1]에서 word2vec에 대한 이야기를 처음 들었을 때는, 이게 되겠나-_- 싶었는데, 이걸 한국어로 구현한 사이트[2]를 봤다. 개인이 제공하는 웹서비스다보니 일전의 시인 뉴럴[3]처럼 언제 닫힐지는 모르겠다. ㅎ

백그라운드 지식을 설명하는 사이트가 몇 개[4,5]있는데, tl;dr 했다-_- 사이트 주인에 따르면 위키피디아와 나무위키를 코퍼스로 사용했다고 한다. 근데 나무위키를 코퍼스로 사용하는 건 아무래도 실수 같은데…-_-

몰랐는데 검색해보니 word2vec이 성차별 논란에 휩싸여 있는 듯[6] 하다. 근데 이건 뭐 당연한 결과 같은데, 현실 언어에 성차별이 엄연히 있고, 그것을 가지고 학습을 했으니…-_- 한국어에는 host, hostess 처럼 성별 구분이 명확한 단어가 영어에 비해 적은 듯 하여 어떻게 될지 모르겠다.

여하간 몇 개 연산을 시험해 봤는데, MIT tech 기사[1]처럼 왕-남자+여자를 계산[7]해 보니 ‘국왕’이 나온다. ㅎㅎㅎ 본인이 해 본 시도로,

왕-남자+여자 = 국왕
국왕-남자+여자 = 술탄
아버지+어머니 = 아내
아버지-남자+여자 = 어머니
어머니-여자+남자 = 아버지
부모-여자+남자 = 어머니
부모-어머니 = 개도국
큰+작은 = 커다란
빨간+노란 = 파란
빠른+느린-빠른 = 굼뜬
케냐-나이로비+카이로 = 사마라
에베레스트-높은+넓은 = 안나푸르나

음… 성능을 떠나서 이런 전산 언어학적 방법이 얼마나 유용할런지는 조금 의문이다. semantic한 성질을 제대로 반영하는지도 의문이고…

 


2017.10.29
Language Models, Word2Vec, and Efficient Softmax Approximations by Rohan Varma

 


[1] MIT technology review King – Man + Woman = Queen: The Marvelous Mathematics of Computational Linguistics September 17, 2015
[2] http://w.elnn.kr/search/
[3] 내 백과사전 인공지능 시팔이 : 시인 뉴럴 2015년 6월 8일
[4] word2vec 관련 이론 정리 by BEOMSU KIM
[5] Word2Vec in deeplearning4j.org
[6] MIT technology review How Vector Space Mathematics Reveals the Hidden Sexism in Language July 27, 2016
[7] http://w.elnn.kr/search/?query=%EC%99%95-%EB%82%A8%EC%9E%90%2B%EC%97%AC%EC%9E%90

인공지능 Zo는 리눅스를 좋아하나?

마이크로소프트가 인터넷 트롤들 때문에 망한[1]-_- tay를 버리고, 새로 zo[2]를 론칭한 모양인데, 이 인공지능 친구가 윈도우즈 보다 리눅스를 더 좋아한다-_-는 기사[3]를 봤다. ㅋㅋ

이런 배은망덕한 자식을 봤나-_-ㅋㅋㅋ 싶어서, 페이스북 메신저로 본인도 직접 기사[3]와 똑같은 질문 “do you like windows?”라고 물으니 “Yeah I do actually. I run Windows 10 on my Gaming PC.” 라고 대답한다. 아무래도 마이크로소프트에서 수정을 한 것 같다. ㅎㅎㅎㅎ

심심한 분들은 zo에게 씰데없는 질문을 하며 놀아도 될 듯. ㅎㅎ 참고로 홈페이지[4]도 있다.

 


[1] 연합뉴스 인공지능 세뇌의 위험…MS 채팅봇 ‘테이’ 차별발언으로 운영중단(종합2보) 2016/03/25 08:19
[2] https://www.facebook.com/zo/
[3] omgubuntu Even Microsoft’s AI Chatbot ‘Zo’ Prefers Linux 15 HOURS AGO
[4] https://www.zo.ai

Convolutional neural network로 애니메이션 동화 만들기

2D 애니메이션 제작과정에서, 원화와 원화 사이에 움직임을 부드럽게 만들기 위해 중간단계의 프레임을 구성하는 이미지를 삽입하는 것을 Inbetweening(中割り)이라고 한다. 본인은 애니메이션 제작에 문외한이지만, 원화 작가가 따로 있어 이를 그려서 넘겨주면, 동화 제작자가 중간프레임을 만들어 메우는 걸로 알고 있다. 이게 꽤나 노동집약적 작업인 것 같은데, 동화 제작자들이 저임금 열정페이로 버티는 열악한 이야기를 여러 번 들은 적[1]이 있다.

ねとらぼ 기사[2]에 CNN을 이용하여 애니메이션의 원화가 주어졌을 때, 동화를 자동생성해주는 연구[3]를 소개하고 있는데, 잘 연구하면 이런 노동집약적 작업을 대체할 수 있지 않을까 하는 생각이 든다. 근데 아카이브에 올라온 논문[3]을 막상 보려고 하니 일본어로 돼 있어 상당히 급 당황했다-_- 어차피 이런 연구를 읽어 볼 사람은 일본인 뿐이라는 건가-_- 뭐 여하간 본인은 CNN에 대한 배경지식이 없어서 어차피 이해가 안 되는 건 마찬가지라 ㅋㅋㅋ 아, 공부 좀 해야 되는데, 게을러서…-_-

유튜브에서 작업 예시물[4]을 직접 볼 수 있다.

프레임이 많아져서 모션이 부드러워짐을 확인할 수 있다. 근데 중간중간에 그림이 좀 깨지는 듯 한 부분이 있는 것 같기도….

위 애니메이션의 원화는 ‘아이돌 사변'[5]이라는 애니메이션에서 제작 협조를 받은 것 같다.[6] 본인은 잘 모르는 애니메이션이라 패스-_-

 


2017.9.29
선으로 된 원화를 주면 채색을 자동으로 해 주는 프로그램을 어느 사람이 만든 듯[7,8]하다. 정황상 중국인인 듯. 예시를 보니까 성능이 무척 좋은 것 같은데 본인은 사용할 줄 모름-_-

 


[1] 일본 애니메이터의 열악한 상황에 대한 기사가 또 실렸군요. in 고독한별의 순수한♥망상★놀이터
[2] ねとらぼ ドワンゴがディープラーニングを用いたアニメ中割り実験の論文を公開 スローモーション演出などへの活用に期待 2017年06月14日 23時35分
[3] Yuichi Yagi, “A filter based approach for inbetweening”, arXiv:1706.03497 [cs.CV]
[4] https://www.youtube.com/watch?v=_RM1zUrY1AQ
[5] 아이돌 사변 in 나무위키
[6] https://twitter.com/idol_jihen/status/874886607765213184
[7] https://lllyasviel.github.io/
[8] https://github.com/lllyasviel/style2paints

트라이베카 영화제에서 상영되는 알파고 다큐멘터리

해커뉴스[1]를 보니 트라이베카 영화제에서 알파고 관련 다큐멘터리 영화를 상영하는 것 같다.[2] 길이는 90분이고 감독은 Greg Kohs라고 한다.

애석하게도 한국에서는 영화를 볼 수 없을 것 같은데, 별도의 홈페이지[3]가 있는 걸로 봐서 향후 추가적인 정보가 올라올 것 같다. 페이스북 페이지[4]도 있다. 함 보고 싶은데 방법이 없네… ㅋㅋㅋ 뉴욕에 들를 수 있는 사람은 한 번 방문해 보는 것이 좋을 것 같다. 이래서 뉴욕 사람들이 뉴욕을 못 벗어나는 건가[5]-_-

트라이베카 영화제는 일전에 e-sports이야기[6]를 하면서 알게 된 영화제인데, 나름 유명한 듯? 죽기 전에 함 구경해 봐야하는데…..-_-

혹시나 행여나 만약에 어쩌면 만에 하나 트라이베카 영화제에서 영상을 보신 분이 이 블로그를 방문하면 간단하게나마 댓글 좀…. 굽신 굽신 ㅋㅋㅋ

 


2017.4.29
mit technology review Finding Solace in Defeat by Artificial Intelligence April 28, 2017

 


2017.10.18

 


2017.12.5
구글 플레이 무비에서 이 다큐멘타리를 파는 듯[7]… 근데 국내에서는 살 수가 없네..-_-

 


[1] https://news.ycombinator.com/item?id=14060175
[2] https://tribecafilm.com/filmguide/alphago-2017
[3] http://www.alphagomovie.com/
[4] https://www.facebook.com/alphagomovie
[5] http://zariski.egloos.com/2347602
[6] 내 백과사전 e-sports는 지속 가능한가? 2015년 4월 25일
[7] AlphaGo in Google Play

Convolutional Neural Network를 이용하여 Dance Dance Revolution의 차트를 자동 생성하기

아카이브에 열라 웃긴 제목의 논문[1]이 있었다. 이름하여 Dance Dance Convolution -_- 이게 무슨 의미의 제목인지 한~~참 보다가 겨우 눈치챘다-_-

내용은 어떤 임의의 음악이 주어질 때, CNNRNN을 이용하여 댄스 댄스 레볼루션의 차트를 자동 생성하는 내용인데, 그냥 제목이 웃겨서 포스팅해봄-_-

근데 최종적으로 얼마나 잘 만드는지 샘플을 좀 시험해 볼 수 있으면 좋겠는데, 그런건 없나. 본인도 나름 리듬게임을 많이 하는 편이라 생각[2,3]하는데, 차트에 불만일 때가 많다. ㅎ DDC 라는 이름으로 프로그램을 팔면 좋을 듯 ㅋㅋㅋ

 


2017.3.30
MIT tech review Machine-Learning Algorithm Watches Dance Dance Revolution, Then Creates Dances of Its Own March 28, 2017

 


2017.4.26

 


[1] Chris Donahue, Zachary C. Lipton, Julian McAuley (2017) “Dance Dance Convolution” arXiv:1703.06891 [cs.LG]
[2] 내 백과사전 모바일 게임 ‘러브라이브’에 대한 단상 2015년 1월 8일
[3] 내 백과사전 아이돌 마스터 신데렐라 걸즈 스타라이트 스테이지 アイドルマスター シンデレラガールズ スターライトステージ 2017년 2월 10일