인텔 옵테인 : 3D 크로스포인트의 상용화

이번 달 이코노미 인사이트지에 3D 크로스포인트에 대한 기사[1]가 무척 흥미진진했다. 본인은 이런 기술의 이름을 처음 들었는데, DRAM과 SSD를 대체할 생각으로 개발중인 저장매체 기술인 듯 하다. xpoint는 기존의 DRAM이나 낸드플래시와는 구현원리 자체가 다른 듯 한데, 언제나 그렇듯이 기술적으로 본인은 전혀 아는 바가 없으니 자세한 건 묻지 마시라 ㅋㅋ 기사[1]에 따르면 현재 SSD보다 2.5배~77배나 빠른 비휘발성 메모리라고 한다. 반면에 단가는 D램의 경우 10달러/GB인데, xpoint는 4달러/GB라서 D램을 대체할 가능성까지 바라보는 모양. 어쩌면 향후 기술발전에 따라 집적도와 단가가 이보다 더 개선될 여지가 있을 수도 있다.

근데 주목해야 할 부분은 “비휘발성”이라 할 수 있을 것 같다. 정말로 DRAM을 비휘발성 메모리로 대체한다면, 컴퓨터를 탁 껐다가 켜면 끄기 직전의 상태로 돌아가는 것이 가능할 텐데, 이거 굉장한 혁신이 아닌가!! 컴퓨터를 부팅해서 업무가 가능하도록 다시 세팅하기까지 걸리는 여러가지 삽질을 감안한다면, 컴퓨터를 활용하는 업무의 생산성에서 비약적인 개선이 될 수도 있지 않을까 싶은 상상이 들었다.

근데 얼마전에 3D 크로스포인트를 상용화한 인텔의 제품 옵테인 메모리가 출시된 듯 한데, 아난드텍의 기사[2,3]를 보니 DRAM을 대체하기는 글렀다 싶어서, 앞에 했던 공상에서 김이 좀 빠진다-_- 게다가 딱히 ssd보다 성능이 많이 우월해 보이지도 않는 듯….

아직 오래되지 않은 기술이므로 집적도와 단가가 나아질지도 모른다. 그러면 어쩌면 낸드 플래시와 DRAM의 강자인 삼전의 지위가 무너질지도 모르지만, 아직은 소설같은 시나리오 같다. ㅋㅋ 때 마침 오늘 읽은 이코노미스트지 기사[4]에 도시바가 망하는-_- 이야기가 나오면서 낸드 플래시 시장점유율 그래프가 나오던데, 이번 글의 주제와 관련없는 기사지만 대충 첨부해봄-_-

근데 옵테인 저거 함 사서 써보고 싶긴 하다-_- 다다음달에 데스크탑 하나 맞춰볼까 하는데, 그 때쯤 되면 구할 수 있으려나-_-

 


[1] 이코노미인사이트 인텔·마이크론의 차세대 메모리 야심 2017년 05월 01일 (월)
[2] 아난드텍 The Intel Optane Memory (SSD) Preview: 32GB of Kaby Lake Caching April 24, 2017 12:00 PM EST
[3] 아난드텍 TechInsights Publishes Preliminary Analysis of 3D XPoint Memory May 27, 2017 8:01 AM EST
[4] 이코노미스트 Embattled Toshiba tries to sell its flash-memory unit May 18th 2017

The Boring Company

해커뉴스[1]에서도 상당히 화제가 된 머스크 씨의 The Boring Company의 컨셉 동영상[2]을 봤는데, 일단 함 보시라. 재생시간은 1분 9초.

홈페이지[3]에는 현재 이 동영상 딸랑 하나 뿐이다-_-

머스크 팬보이인 본인의 관점으로도 딱 보자마자 대단히 회의적인 생각이 들지 않을 수 없었는데, 해커뉴스[1] 사람들도 비슷하게 생각하는 듯. 대도시에서 자동차는 전체 공간 대비 가장 비효율적인 운송수단[4]인데, 공간을 늘리는 방법을 모색하는 것이 아니라 대중교통을 개선할 방법을 생각해야 맞는거 아닌가 모르겠다. 더구나 대량의 자동차를 수용할 수 있는 거대한 지하 인프라를 건설하는데 드는 비용이 어느 정도인지 감이 안온다. (참고로 서울지하철 9호선 건설비용이 NASA의 화성탐사선 보다 4배 이상 들었다.[5]) 더구나 지진이 일어난다면??? Neuralink도 상당히 황당한 계획이던데, 그냥 하던 거나 좀 더 열심히 하지, 왜 자꾸 새로 회사를 설립하는지 이해가 안 되네.

마침 중앙 선데이에 Boring Company를 언급하는 기사[6]도 나와 있다. 여하간 머스크씨는 화성 식민지 건설이나 열심히 추진하는게 어떨런지? ㅋ

 


2017.5.13
the verge Elon Musk’s new video of his underground tunnel project will make you nauseated May 12, 2017, 9:56am EDT

 


2017.7.21
매셔블 Elon Musk: US government verbally agrees to let the Boring Company build a tunnel from NYC to DC 14 HOURS AGO

 


[1] https://news.ycombinator.com/item?id=14223020
[2] https://www.youtube.com/watch?v=u5V_VzRrSBI
[3] https://boringcompany.com/
[4] Amount of Space Required to Transport People by Car, Bus, or Bicycle
[5] 내 백과사전 인도 화성 탐사선의 성공 2014년 9월 25일
[6] 중앙선데이 하이퍼루프, 요란한 사생활, 트럼프 프렌들리…일론 머스크의 머릿속은? 2017.04.30 00:02

일본 가상 아이돌의 역사

VR inside 기사[1]를 보니 가상 아이돌의 역사를 짚는 글이 올라와 있었다. 당연히 옛날 아이돌은 전부 처음 듣는 이름이다. ㅎㅎ 한국어 위키백과의 ‘가상 아이돌‘ 항목이 의외로 은근히 자세하다!

기사에서는 최초의 가상 아이돌로 린 민메이를 꼽고 있는데, 나무위키[2]에서도 비슷한 설명이 있다. 이후로 몇몇 허구 캐릭터를 데뷔시키려는 시도가 있어온 듯 하다. 요새는 방영하는 애니메이션이 좀 인기타면 거의 예외없이 해당 캐릭터 송 음반이 발매되는걸 보면, 현재의 관점에서 보면 별로 신기한 건 아닌 듯. ㅎ

1996년에 발전된 컴퓨터 그래픽의 3D 기술을 이용하여 다테 쿄코(伊達杏子)가 가상 아이돌로 데뷰했다고 한다. 한국어 위키백과에 따르면, 1998년에 국내에서 사이버 가수로 데뷔한 아담이 다테 쿄코의 영향을 받았다고 한다. 본인이 어렸을 적에 아담이 컴퓨터 바이러스로 사망-_-하였다고 화제가 되었던 기억이 있는데, 오래 돼서 잘 기억이 안나네-_-

1998년에는 테라이유키(テライユキ)라는 가상 아이돌이 있었다 한다. 상업적 목적으로 만든 것이 아니고 어느 만화가가 개인적으로 만든 3D 모델링이라고 한다. 2000년 전후로 나름 꽤 인기를 얻은 모양인데, 덕분에 유사한 몇몇 가상 아이돌이 활약했던 모양.

2007년에 음성합성 소프트웨어의 등장으로 보컬로이드 하츠네 미쿠가 히트하였는데, 뭐 본인은 얼마전에 산 49인치 모니터[3]로 자주 보고 있으니-_- 설명은 패스 ㅋㅋㅋ 그 밖에 ‘아이돌 마스터’나 ‘러브라이브’ 같이 실존하지 않지만, 일본내에서 인기있는 컨텐츠도 가상 아이돌로 분류할 수 있을 것이다.

기사 뒷부분에는 근래 VR로 출시되어 화제가 된 게임 ‘서머 레슨‘의 미야모토 히카리 이야기가 나온다. 본인도 일전에 산 VR[4]로 열심히 공략(?)을 하긴 했지만, 미야모토 히카리는 히트하기에 앞서, 서머 레슨의 그 형편없는 해상도부터 일단 교정해야 할 것 같다-_-

기사[1] 마지막에는 현실에 있는 사람을 CG 게임으로 가지고 온 사례를 이야기 하는데, 언젠가는 실존 아이돌이 가상 세계에서도 활동하게 될 수도 있을 것 같다. 뭐 물론 마지막에는 제작비용이 가장 문제겠지만 ㅎㅎ

 


2017.4.27
디스이즈게임 [NDC 17] 새로운 발상이 공감의 시작으로, ‘하츠네 미쿠’ 10년 2017-04-27 07:53:06

 


2017.4.29
게임어바웃 [NDC 2017] ‘공감’이 만들어 낸 가상 아이돌, 하츠네 미쿠 이야기 17.04.27

 


[1] VR inside 伊達杏子・テライユキから初音ミク・宮本ひかりまで、縮まるバーチャルアイドルとの距離! 2017/04/02
[2] 린 민메이 in 나무위키
[3] 내 백과사전 와사비망고 UHD490 REAL4K HDMI 2.0 엣지 사용 소감 2017년 4월 8일
[4] 내 백과사전 플레이스테이션 VR 4시간 사용 소감 2016년 10월 14일

국가별 제조업 피고용인 10000명당 다용도 산업용 로봇 수(2015)

이코노미스트지의 그래픽 디테일[1]에 산업용 로봇 시장에 대한 현황이 나와 있다.

세계 산업용 로봇 시장 점유율이 가장 높은 일본 기업 FANUC의 주가는 지난 6개월간 35%나 뛰었다고 한다. 일전에 이야기[2]한 九十九蘭에게 FANUC의 오늘 주가와 2016년 10월 6일의 주가를 물으니 각각 22,755엔, 18,025엔이라고 대답한다. ㅋㅋ 초 올랐네-_-

위 그래프에서 피고용인 10000명당 로봇수가 가장 높은 국가는 한국이라고 나오는데, 신기하네 싶어서 원본 데이터를 찾아봤다. International Federation of Robotics의 웹사이트에서 세계 로보틱스 마켓 오버뷰 프레젠테이션[3;p15]에 동일한 데이터가 나와 있다.

근데 이걸 보니 다용도 산업로봇의 개수가 가장 많다는 이야기라서 그냥 로봇이 많다는 이야기가 아니었다. ㅋ 아무래도 한국의 자동차, 반도체 산업이 크다보니 이런 통계가 되지 않았나 싶다.

여하간 산업용 로봇 시장이 그렇게 전망이 좋다는데, 국내 상장기업중에 투자해볼만한 회사가 있나 싶어 검색해보니 어느 블로거가 좀 정리해 둔 글[4]이 있었다. ㅋ 근데 막상 찾아보니 미래 지향적 회사라 그런지 PER, PBR이 엄청나게 높다-_- 너무 도박스러워서 도저히 못 사겠다-_-

 


[1] 이코노미스트 The growth of industrial robots Mar 27th 2017, 17:08
[2] 내 백과사전 금융권 챗봇(chatbot) 일람 2017년 2월 26일
[3] https://ifr.org/downloads/ …. (pdf)
[4] 인공지능 로봇 관련주 미래투자 가능종목들 in 20대 성공한 전업투자자

캠프VR 체험 소감

작년에 홍대에서 VR방이 대박났다는 기사[1]를 읽은 적이 있는데, 역시 발빠른 사람이 돈을 잡는구나-_- 하는 생각이 들었다. ㅋㅋㅋ 얼마 전에는 대구 시내 한가운데 ‘캠프VR’이라는 VR방이 생겼다는 소식을 들었는데, 3일만에 손익분기에 도달했다[2]니 믿을 수가 없었다-_- 개장시점은 2월인 듯 한데, 본인은 어제 가 봤다. 위치는 대구 영스퀘어 건물 4층[3]이다.

개장 시간은 오후 2시부터 오후 10시까지다. 본인이 지난 주 월요일에 갔을 때는 때마침 휴무일이라 허탕을 쳤는데, 알고 보니 장비 정비 관계로 휴무였다고 한다. 특별히 정해진 휴무일은 없다고 한다. 이번에도 월요일 오후에 갔는 데, 가장 사람이 적은 시점이라 그런지 몰라도 손님이 본인 말고 두 명 뿐이었다. ㅋ 정말 장사 잘 되는 거 맞나-_-

오락실이나 게임방처럼 개인 사용비용을 받는 것이 아니라, 놀이공원처럼 입장료를 받는 방식이었다. 입장료는 19000원인데, 현재는 오픈 행사라 50% 할인을 한다고 한다. 시간제한은 없으나 내부에 FPS 공간을 이용 하려면 추가로 5000원 요금을 내야 한다. 일하시는 분들은 무척 친절하고도 능숙하게 사용법 설명을 잘 해 주신다.

머신은 여러 대가 있었지만, 종류로 분류하면 FPS, 레이싱, 공포체험 세 종류 뿐이라 단조롭다는 생각이 들었다. 그러나 오큘러스PSVR이든 시중의 개인용 VR은 헤드마운트/컨트롤러 뿐이지만, 여기에서는 의자에서 진동이나 움직임이 있으므로 훨씬 몰입을 할 수 있다. 여기의 장비는 개인이 구입하기에는 상당히 부담스러운 하드웨어이므로, 이미 VR 기기를 가지고 있는 사람이라도 한 번 가볼만 하다. 헤드마운트 머신은 모두 HTC Vive인 것 같다.

안쪽에 FPS는 백팩 형태로 휴대 가능하고, 넓은 방 안에 12대의 카메라로 위치 추적을 하므로 상당히 성능이 좋다. 소총도 쏘면 진동이 되므로 사격스러운 느낌이 들어 상당히 좋다. 다만 내부의 게임 소프트웨어는 그리 썩 잘 만든 것 같지 않다. 사람과 오브젝트가 겹칠 때가 너무 많아서 상황이 어떻게 돌아가는지 파악이 안 될 때가 너무 많았다. 뛰어난 하드웨어로 이 정도의 재미 밖에 못 만드나 하는 아쉬운 느낌이 든다.

VR이라는 장비는 실감나지만, 그 안의 컨텐츠를 어떻게 재미있게 만드는가는 또 다른 문제인 것 같다.

 


[1] VRN 홍대서 대박난 VR 데이트 카페 ‘샵브이알’ … VR방 ‘불 붙는다’ 2016.12.27 19:05
[2] 세계일보 국내최초 VRis 게임방 ‘캠프VR’, 개장 3일만에 손익분기점 도달 2017-03-20 16:21:36
[3] https://goo.gl/maps/ZLXJtasDCjG2

서울대학교 차량 동역학 및 제어 연구실에서 제작한 자율주행 자동차 시험 주행 영상

2017 서울모터쇼[1]가 오늘 개막한 모양인데, 자동차에 무지한 본인으로는 모터쇼 하면 레이싱걸을 보는 재미로-_- 가본 기억이 있다. ㅋㅋㅋ

지디넷 기사[2]에 2017 서울모터쇼에서 공개한 서울대학교에서 개발한 자율주행 자동차 시험 주행 영상이 올라와 있다. 영상의 길이는 12분 51초.

물론 자율주행 기술이 대단히 어렵다는 것은 알고 있으나, 교차로 신호를 스스로 감지하지 못한다던지, 수동으로 제어하는 부분이 지나치게 많아 보여서 꽤 아쉬운 부분이 많다. 영상의 10분 경에 공사현장을 인식하지 못해서 수동으로 조작하는 부분에서는 아직 자율주행 기술이 갈 길이 멀다는 걸 느낄 수 있다. 일전에 유노가미 다카시의 저서[3]에서도 나오지만, 60%에서 80%로 올리는 것은 비교적 간단하지만 80%에서 98%로 올리기 위해서는 엄청난 노력이 필요하다. 하물며 자율주행은 사람 목숨이 달려 있으니 99%에서 99.999%로 올려야 하는데, 이것은 참으로 갈 길이 멀다는 것을 시사한다.

2월 20일자 한겨레 기사[4]에 따르면, 국내 자율주행 허가를 받은 자동차는 총 13대라고 한다. 교통안전공단에서도 연구하는 줄 몰랐네-_- 네이버도 연구하는 듯 한데, 검색해보니 홍보영상[5]은 있어도 실제 주행 영상은 없는 듯…

유튜브에 현대 아이오닉의 자율주행 영상[6]이 있는데 상당히 훌륭하다. 이쪽은 서울대학교의 자동차 보다 훨씬 성능이 좋은 것 같다. 영상[6]의 자동차가 위 허가 목록에 없어 이상하다고 생각했더니 촬영지가 미국이었다. ㅎㅎ

 


[1] http://www.motorshow.or.kr/
[2] 지디넷 ‘양산차 근접’ 서울모터쇼 등장 자율차 타보니 2017.03.31.18:06
[3] 내 백과사전 [서평] 일본 전자.반도체 대붕괴의 교훈 2015년 8월 7일
[4] 한겨레 네이버도 구글처럼…자율주행차 도로 달린다 2017-02-20 22:41
[5] https://www.youtube.com/watch?v=gnHXR08DmOA
[6] https://www.youtube.com/watch?v=UjuR_d5LhMQ

VR 단편 애니메이션 ‘Pearl’

2016년 아카데미 시상식에서 단편 애니메이션 부문이 발표되었다고 한다. 예전에는 매년 수상작이랑 후보작품들을 챙겨봤는데, 근래 몇 년간 까먹고-_- 안 챙겨보다가 인제 생각나서 포스팅한다. ㅋㅋ 2008년 수상작 つみきのいえ[1], 2012년 수상작 Paperman[2], 2013년 수상 작품인 Mr Hublot[3]를 소개한 적이 있다. 올해는 픽사의 ‘Piper‘가 수상했다고 한다.

후보작 중에서 ‘Pearl‘이라는 애니메이션이 있다. Patrick Osborne이라는 애니메이터의 작품이라고 하는데, 이 사람 2014년에는 ‘Feast‘라는 작품으로 이미 한 번 수상한 적이 있다.

Osborne씨가 이번에 후보로 올라온 작품 ‘Pearl’은 아카데미 사상 최초로 VR 작품이 노미네이트 된 것[4]이라 한다. 감상할 때는 구글 카드보드가 있으면 좋지만, 없어도 웹브라우저상에서 마우스 클릭으로 회전시켜 볼 수는 있다. 러닝타임은 5분 38초.

일전에 뉴욕타임즈 VR 앱[5]을 사용하면서 든 생각인데, VR로 스토리를 따라갈 때는 주목해야 할 방향이 어디인지 몰라서 당황하거나, 다른데 주목하다가 중요한 이벤트의 순간을 놓치는 경우가 좀 있다는 생각이 든다. 그렇다고 특정 방향에 종속하면 VR로서의 장점이 사라진다. 확실히 VR이 영화 매체의 표현으로는 좀 안 맞다는 생각도 든다.

참고로 아래는 이번에 아카데미상을 수상한 픽사의 ‘Piper’이다. 러닝타임은 3분 20초

 


2016.3.1
MIT tech review Hollywood Has No Idea What to Do with VR February 16, 2017

 


[1] 내 백과사전 할아버지의 바닷속 집 つみきのいえ 2011년 6월 22일
[2] 내 백과사전 Paperman 2013년 3월 10일
[3] 내 백과사전 Mr Hublot 2014년 3월 5일
[4] VRN VR애니메이션 ‘펄’, 아카데미 VR 후보작 노미네이트 2017.02.27 16:50
[5] NYT VR – Virtual Reality in Google PlayStore

3D 만화

모바일에서는 로딩하는데 좀 시간이 걸리니 LTE 데이터 모자라는 분들은 와이파이로 보는 것을 권장함.

3차원 컨텐츠를 공유하는 Sketchfab이라는 웹사이트[1]가 있는 줄 처음 알았다. ㅎㅎ WebGL을 이용하여 데스크탑 크롬과 익스플로러 웹브라우저에서 바로 3D모델을 볼 수 있도록 하는 훌륭한 사이트이다. 안드로이드의 크롬브라우저에서도 작동하고 카드보드 용의 전용 VR 앱[2]도 있다.

해커뉴스[3]를 보니 어떤 사람이 만든 3D만화를 소개하던데 그 댓글에 있는 Sketchfab의 모델들[4~8]이 무척 훌륭해서 걍 포스팅 해봄. ㅋ

계속 읽기

이코노미스트지의 기계 번역/음성 인식 기사

이코노미스트지에서 1년에 네 번 발행하는 Technology Quarterly에는 다양한 기술 분야의 현황을 두루 소개하는 글로 채워지는데, 이번 주는 완전 작정하고 모든 기사가 기계 번역과 음성 인식 분야에 몰빵[1]을 하고 있다-_- 얼마전에 아마존 에코가 대박 많이 팔렸다[2]는 기사를 봤는데, 이쪽 분야가 확실히 요즘 화제가 되긴 되는 모양이다. ㅋㅋ

기계번역/음성인식 분야에 관한 역사와 최신 현황을 두루 아우르고 있는 듯 한데, 너무 길어서-_- 본인은 앞쪽 절반 정도만 읽었다. 흑 그놈의 영어 울렁증 ㅋ

초반에 ALPAC에 관한 이야기가 나오는데, 본인은 이런 역사가 있는 줄 처음 알았다. ㅎㅎ 당시에 기계번역에 대한 장밋빛 전망이 우세했던 모양인데, 1964년에 미 정부에서 7명의 학자 자문단 ALPAC을 구성하여 기계번역의 미래에 관해 물어보니, 기계번역이 완성되려면 택도 없다는 요지의 보고서-_-를 내는 바람에, 기계번역 분야의 지원금이 몽땅 끊기고 이 분야는 거진 20년간 암흑기에 들어갔다고 한다. ㅋㅋ 하긴 근래들어 엄청 좋아졌다는 구글 번역기도 대충 의미 파악용으로만 쓸 수 있지, 실제 활용가능한 문장으로는 좀 무리가 많은데, 60년대는 오죽하겠나 싶다.

기계 번역으로 과거에는 rule-based translation이 주력이었던 모양인데, 검색해보니 그런 관점에서의 재미있는 글[3]도 발견할 수 있었다. 과학동아의 1987년(!) 글인데, 과학동아 대단하다 ㅋㅋㅋ 1987년도 글을 웹으로 볼 수 있게 서비스 하다니 ㅋㅋ rule-based translation이 번역 알고리즘의 주력이던 시절의 관점을 간접적으로나마 엿볼 수 있어, 기술의 시대감이 느껴진다.

글[1] 중간에 Mark Liberman 교수가 언급되는데, 본 블로그에서도 종종 소개하는 유명한 언어학 블로그 Language Log[4]의 필진 중 한 명이다. 뭐 언어학 공부하는 사람은 이 블로그 이미 다 알고 있더만. ㅋ

일전에 확률 문법에 대한 이야기[5]에서도 잠시 나오고, 구글의 SyntaxNet 소개[6]에서도 나오지만, 언어의 모호성과 중의성 때문에, 또 문법의 예외적 측면이 너무 광범위해서 rule-based는 한계가 많다. statistics-based는 (비록 촘스키 선생은 대단히 회의적이라지만 ㅋ) 그런 측면에서 돌파구가 될 수 있다. 근래에는 이 두 가지에다가 neural network를 짬뽕한 Neural machine translation이 시도되는 모양.

중간에 phrase-based 번역과 neural-network 번역, 인간 번역을 비교한 그래프도 있다. 모든 번역에서 neural-network 번역은 phrase-based보다 우수하지만 인간이 직접 번역한 것 보다는 못한 점수를 얻는다. 꽤나 고무적인 결과지만, 본인이 보기에는 아직 갈 길이 멀다. 언제나 그렇듯이 60%에서 90%로 향상하기는 쉽지만, 90%에서 99%로 향상하는 것은 어렵기 때문이다.

일전에 음성인식 스마트거울 만드는 이야기[7]도 했지만, annyang[8]을 써 보니 음성인식 쪽은 진짜 성능이 비약적으로 발전한 것 같다. 뭐 좀 시끄러우면 인식 실패할 때가 많긴 하지만-_- 비교적 조용한데 설치하면 거의 백발백중이다. 음성합성도 마찬가진데, 일전에 소개[7]한 responsive voice[9]를 이용하면 정말 사람이 말하는 것 같이 사운드를 만든다. annyang이든 responsive voice든 구글의 데이터를 베이스로 쓰니 결국 구글의 기술인데, 구글이 무슨 요술을 부린건지 한국어를 이렇게 잘 맞춘다. 마술과 구별이 안 될거라는 클라크 선생의 말이 역시 맞구만-_-

 


[1] http://www.economist.com/technology-quarterly/2017-01-07
[2] geekwire Amazon Echo sales up 9X compared to last year, company says in holiday roundup December 27, 2016 at 8:28 am
[3] 과학동아 컴퓨터 자동번역 시스템 언어장벽이 무너진다 1987년 02월호
[4] http://languagelog.ldc.upenn.edu/nll/
[5] 내 백과사전 확률 문법의 간략한 소개 2016년 10월 7일
[6] 내 백과사전 구글의 자연어 처리 오픈소스 SyntaxNet 2016년 5월 14일
[7] 내 백과사전 음성인식 스마트 거울 만들기 2016년 11월 2일
[8] https://www.talater.com/annyang/
[9] http://responsivevoice.org/