'사색/칼럼'에 해당되는 글 9건

  1. 2015.08.12 빅데이터 분석, SI사고방식 버려라
  2. 2015.01.05 고슴도치와 여우~ 누가 빅데이터 분석에 적합할까?
  3. 2014.03.13 단기간에 빅데이터 인력 양성은 허구다
  4. 2014.02.14 개인정보와 빅데이터가 충돌하지 않게 하는 방법
  5. 2014.01.10 모바일앱 분석으로 매출에 영향을 줄 수 있을까?
  6. 2013.12.05 비즈니스 프렌들리한 빅데이터 분석의 조건
  7. 2013.11.12 빅데이터 실시간 처리, 오픈소스 '에스퍼' 주목하라
  8. 2013.10.04 데이터 시각화의 오해와 진실
  9. 2013.09.03 빅데이터 분석의 성공 열쇠~

빅데이터 분석, SI사고방식 버려라

|



"본 글은 2015년 8월 11일 지디넷코리아에 기고한 칼럼입니다."


최근 데이터 분석에 대한 관심이 높아지면서, 공공뿐만 아니라 민간에서도 다양한 프로젝트가 많아지고 있는 추세다.

빅데이터 프로젝트의 핵심은 데이터 규모와 관련된 것뿐만 아니라, 

데이터를 분석해서 가치를 창출하고, 이를 기반으로 의사결정을 해 실제로 비즈니스에 활용하는데 있다. 

데이터의 가치를 찾아내기 위해서는 끊임없이 가설을 세우고 지속적으로 검증하는 절차가 필요하다.

즉, 데이터 분석은 이러한 작업을 반복적으로 수행하면서 결과를 만들어가는 과정에 초점을 맞춰야 한다. 

그러나 실제 빅데이터 프로젝트를 수행하는 형태를 살펴보면, 기존의 SI 프로젝트처럼 진행하는 경우가 많다. 

대규모 SI 프로젝트를 수행하듯 전체 아키텍처를 설계하고, 주어진 일정에 맞춰서 WBS(Work Breakdown Structure)를 구성한다. 

그리고 미리 정해진 일정에 따라 구현 및 테스트를 통해서 프로젝트의 결과물을 만들어내기를 원한다.

이 과정에서 데이터 분석을 위한 가설 수립과 수많은 테스트를 통한 검증은 외면당하기도 한다. 

실제 프로젝트 수행시 데이터 분석에서 "왜 이런 반복적인 프로세스가 필요한가?"를 설득하고 이해하는데 어려움이 있다. 

심지어 데이터 분석 결과 원하지 않는 결과가 나올 수도 있다고 하면 고객은 당황하기도 한다.


다양한 측면에서 데이터를 분석해 보면 처음 설정한 가설이 틀릴 수도 있다. 

이런 결과를 확인한 것도 분명히 성과임에도 고객은 실패로 받아들이는 것이다.

성공적으로 분석 결과가 나와서 새로운 서비스에 적용하면 끝이라는 생각도 위험하다. 

베이즈 정리에서 축적된 데이터를 기반으로 확률을 높여가면서 보다 정확한 예측을 하는 것처럼, 

분석 결과로 제공하는 서비스의 데이터를 다시 입력으로 보고 한번 더 분석, 검증하는 과정을 거치면서 지속적으로 정확도를 높여나가야 한다.

결론적으로 올바른 빅데이터 프로젝트를 수행하기 위해서는 가설 수립, 분석 모델 설정, 설계, 검증을 반복적이면서 체계적으로 관리할 수 있어야 한다. 

그래서 애자일 방법론이 폭포수 모델 기반의 기존 방법론보다 빅데이터 프로젝트에 더 적합하다고 볼 수 있다. 

전체 프로젝트의 일정을 짧게 나누고 계획, 분석, 검증 작업을 반복적으로 수행하면서 최선의 결과를 찾아나가는 방식이 빅데이터 분석에 어울리는 것이다.

또 빅데이터 프로젝트는 기존의 SI를 담당하는 IT 부서나 개발자 위주로 진행하면 안 된다.

첫째, 실제 빅데이터 프로젝트에는 다양한 이해 관계자들이 존재한다. 

비즈니스 전문가, 데이터 분석가, 통계 전문가, 시각화 전문가, 개발자 등이 모두 참여하는 복합적인 프로젝트이다.

각각의 이해 관계자들이 끊임없이 의사 소통하면서 기존의 발견하지 못한 무언가를 찾아내는 것이 필요하다. 

보다 효과적인 의사 소통을 위해서 난해한 개발자들의 용어가 아니라 공통의 언어로 소통할 필요가 있다. 

그러므로 개발자가 아닌 비즈니스 전문가나 데이터 분석가 중심으로 프로젝트를 수행하는 것이 바람직하다고 본다.

둘째, 일반적으로 개발자는 결과물을 만들어 내기 위한 기술이나 도구에 집중하는 경향이 높다. 

물론 빅데이터 프로젝트를 수행하는데 있어 어떤 도구를 활용하고, 어떤 기술을 사용하는지는 잘 결정해야 할 필요가 있다. 

그러나 앞서 언급한 대로 실제 빅데이터 프로젝트는 결과물을 기반으로 새로운 서비스를 창출하거나 보다 효과적인 의사결정에 활용하는 것이 더욱 중요하다. 

그러므로 기술이나 도구보다 어떻게 결과물을 검증하고 분석 모델을 보완해 나갈 것인지에 대해 보다 관심을 가져야 한다.

성공적인 빅데이터 프로젝트를 위해 관리자는 개발이 아닌 데이터 분석에 초점을 맞출 필요가 있다. 

실제 현장에선 개발에 초점이 맞춰진 경우도 종종 있는데, 지켜보는 입장에서 아쉬울 따름이다.




Trackback 0 And Comment 0

고슴도치와 여우~ 누가 빅데이터 분석에 적합할까?

|



러시아의 사상가인 이사야 벌린은 사람을 "고슴도치"와 "여우"의 두 가지 유형으로 분류했다. 

여우는 여러 가지 목적을 동시에 추구하면서 세상의 복잡한 면면을 두루 다룬다. 

그래서 오지랖 넓게 여기 저기 기웃거리는 사람이라 할 수 있다. 


반면, 고슴도치는 복잡한 세계를 단 하나의 체계적인 개념이나 기본 원리로 단순화 시킨다. 

그래서 하나의 원리를 향해 외곬으로 나아가는 사람이라 할 수 있다. 


원래 고슴도치와 여우는 라틴어 격언에서 시작한다. 

여우는 많은 것을 알지만, 고슴도치는 큰 것 하나를 안다. (Multa novit vulpes, verum echinus unum magnum)


이사야 벌린은 톨스토이가 고슴도치 타입인지 여우 타입인지를 "전쟁과 평화"를 통해 살펴보았다고 한다. 

그 결과 톨스토이는 고슴도치 타입으로 살기 원했지만 실제로는 여우 타입이었다고 한다. 



역사적 인물로 단테, 플라톤, 파스칼, 헤겔, 도스토예프스키, 니체는 고슴도치 타입, 

헤로도토스, 아리스토텔레스, 몽테뉴, 괴테, 발자크 등은 여우 타입이라고 한다. 


과연 고슴도치와 여우 중 빅데이터 분석에는 누가 적합할까? 


"좋은 기업을 넘어 위대한 기업으로"를 쓴 짐 콜린스는 여우가 아닌 고슴도치가 성공할 수 있다고 강조한다. 

고슴도치는 세상이 아무리 복잡해도 단순한 하나의 고슴도치 컨셉으로 축소시키고, 

이 고슴도치 컨셉에 부합하지 않는 것에는 전혀 관심이 없기 때문이라고 한다. 

고슴도치 컨셉을 갖는 순간 명쾌함과 단순성을 확보할 수 있다고 한다. 

즉, 사업적인 성공을 하려면 고슴도치와 같은 단순함에 기반한 하나의 가치를 가져야 할 것이다. 


반면 필립 테틀록은 전문가들의 분석에 따른 예측이 얼마나 잘 맞는지 20년간 연구를 했다.

이 과정에서 고슴도치와 여우의 양 극단으로 전문가를 분류한 결과,

여우가 고슴도치보다 예측을 잘한다는 사실을 발견했다고 한다. 


또한 네이트 실버는 "신호와 소음"에서 고슴도치에게 너무 많은 정보가 주어지는 것은 독이 된다고 했다. 

많은 정보를 가진 고슴도치들이 온갖 이야기를 만들어 내고, 이를 비판적으로 생각하는 능력을 잃어버릴 수 있기 때문이라고 한다. 


고슴도치는 큰 것 하나, 하나의 원리만을 바라보기 때문에 다양한 정보 중 자신에게 유리한 것만 취할 수 있기 때문인 듯 하다. 

반면에 여우는 여기 저기 다 고려하기 때문에 분석에 있어서 더 유리한 건 아닐까 한다. 


결론적으로 여우 타입이 빅데이터 분석에 적합하다고 볼 수 있다. 

과연 나는 여우 타입일까? 고슴도치 타입일까? 





Trackback 0 And Comment 0

단기간에 빅데이터 인력 양성은 허구다

|



"본 글은 2014년 3월 12일 지디넷코리아에 기고한 칼럼입니다."


빅데이터에 관심이 있다면 데이터 과학자(Data Scientist)에 대해 들어 봤을 것이다.  

성공적인 빅데이터 분석을 위해서 데이터 과학자들이 많이 필요하다고 한다.

 

데이터 과학자는 과연 어떤 역할을 할까? 

2012년 하바드 비즈니스 스쿨에서 발표한 '데이터 과학자: 21세기 가장 멋진 직업'(Data Scientist: The Sexiest Job of the 21st Century)이란 자료를 보면 살펴보면 이에 대한 해답이 나와 있다.

 

데이터 과학자는 복잡하고 수많은 데이터를 구조화해서 분석이 가능하게 만든다. 

필요한 데이터를 찾고 서로 연결하기도 하면서 데이터에서 인사이트를 찾아내는 것이다. 

 

그리고 새롭게 찾아낸 인사이트를 비즈니스에 적용해 회사가 나아갈 방향을 제시하기도 한다. 

의사결정권자의 이해를 돕기 위해 시각화 기술을 활용하고 패턴을 제공하기도 한다. 

 

이런 데이터 과학자가 되기 위해 필요한 역량은 무엇일까? 

 

기본적으로 프로그래밍 기술, 통계, 그리고 데이터 분석에 대한 전문적 지식을 가지고 있어야 한다. 

과학자로서 호기심을 가지고 새로운 가설을 만들고 검증할 수 있어야 한다. 

이를 위해 스토리텔링 능력과 패턴 및 알고리즘 구성, 시각화 기술도 필요하다. 

분석 대상이 되는 비즈니스에 대한 전문적 지식도 당연히 필요할 것이다. 

 

이렇게 보면 데이터 과학자는 빅데이터 분석에 있어 슈퍼맨과 같은 존재로 다가온다. 

이런 슈퍼맨을 정부 등 여기저기에서 대거 양성하겠다고 한다.

 

하지만 짧은 기간 내에 데이터 과학자를 키우는건 쉽지 않다. 

최소한의 프로그래밍, 수학, 통계학, 비즈니스에 대해 가르쳐야 하기 때문이다. 

수학과 통계학만 제대로 공부하는데 10년이 걸린다고 하는 이들도 있다.

 

프로그래밍 기술과 비즈니스 교육, 거기에 스토리텔링, 시각화, 분석 기술까지 가르쳐야 한다는걸 감안하면 쓸만한 데이터과학자 양성에는 정말이지 오랜 시간이 필요할 것이다.

 

하지만 빅데이터 분석이 십여년 후에 어떻게 변화할지는 아무도 모른다. 

기술 발달로 데이터 과학자 없이 누구나 쉽게 분석을 할 수 있는 상황이 될 수도 있을 것이다. 

다시 말해 데이터 과학자가 양성될 때까지 시장은 기다려 주지 않는다는 것이다. 

 

그런만큼, 다음과 같이 역할별로 세분화해서 빅데이터 인력 양성을 하는 것이 바람직하다는게 필자의 생각이다.

 

첫째, 빅데이터 개발을 수행할 수 있는 데이터 개발자 인력을 양성하는 것이다. 

실제로 국내에도 빅데이터와 관련된 개발을 할 수 있는 엔지니어는 많이 있다. 

기존 데이터를 처리하던 데이터웨어하우스(DW)나 비즈니스 인텔리전스(BI) 개발자들이 자연스럽게 데이터 개발자 영역으로 이동할 수 있다.  

데이터 마이닝이나 텍스트 데이터를 처리했던 개발자들도 있다. 

 

빅데이터 분석과 관련하여 등장한 새로운 기술 분야별로 개발자를 양성할 수도 있다. 

하둡(Hadoop), NoSQL, R, CEP(Complex Event Processing) 등 각 개발 언어나 플랫폼에 따라 개발자들을 늘려 나가면 될 것이다. 

 

프로젝트는 팀 단위로 이뤄질 것이므로 굳이 한 명의 개발자가 모든 툴을 다 다룰 필요는 없다. 

기존 자바(Java) 개발자들이 모바일이 대세가 되면서 안드로이드 개발자로 빠르게 이동한 것처럼 

빅데이터 분석이 더욱 활성화되면 자연스럽게 기존 개발자들이 데이터 개발자로 넘어 올 것이다. 

 

둘째, 데이터 개발자가 확보 되면 이제 빅데이터 분석이 가능한 분석 전문가 양성이 필요하다. 

데이터 개발자가 데이터를 가지고 프로그램을 직접 만드는 인력이라고 한다면, 

분석 전문가는 여러 가지 데이터들을 활용해서 각종 비즈니스 질문에 해답을 제시할 수 있는 이들이다.

 

데이터 개발자는 사용하는 툴이나 언어, 플랫폼에 따라 다양한 분야로 나눌 수 있지만, 

분석 전문가는 다음과 같이 네가지 분야별로 구분해서 양성하면 좋을 것 같다. 

 

1. 비즈니스 분석 전문가 

빅데이터 분석을 하기 위해서는 비즈니스에 대한 이해가 반드시 필요하다.  

비즈니스를 이해하는 인력은 별도로 양성하기보다 기존의 인력을 충분히 활용할 수 있을 것이다.

 

새로운 사업 계획을 세우고 목표 도달 여부를 평가하기 위해서 엑셀과 같은 툴을 활용하는 인력들이 일반적으로 회사 내부에 있을 것이다. 

임원이나 의사결정권자의 비즈니스 관련 질문에 적절한 해답을 제공하던 인력도 있을 것이다. 

 

이런 역할을 수행하던 영업, 마케팅, 회계 담당 인력들이 바로 비즈니스 분석 전문가 후보가 될 수 있다. 

실제 비즈니스 분석 전문가는 외부에서 찾기 보다 내부에 있는 호기심 많은 인재를 찾아 양성하는 것이 바람직하다. 

 

2. 데이터 분석 전문가 

데이터 분석 전문가는 비즈니스와 IT의 중간 영역이라 할 수 있다. 

데이터 개발자에게 프로그래밍에 대한 방향을 제시하고, 비즈니스 분석 전문가와 함께 분석으로 도출된 인사이트에 대해 협의하기도 한다. 

 

데이터 분석 전문가가 하는 주요 작업은 데이터에 접근해서 이를 문서화하고 정리하는 것이다. 

이를 통해 현업 담당자들이 필요한 정보를 빨리 찾고 활용할 수 있도록 한다. 

데이터 분석 전문가는 데이터 포맷, 저장, 삭제, 보안 등을 담당한다고 보면 된다. 

최근 이슈가 되고 있는 개인정보보호 관련 정책도 데이터 분석 전문가를 통해서 구성할 수 있다. 

 

3. 통계 전문가 

통계 전문가는 수학과 통계학을 이해하고 데이터 마이닝 활용 방법을 알고 있는 인력이다. 

프로그래밍 정도는 아니지만 SQL이나 R을 사용해 데이터를 다룰 수 있어야 한다. 

 

통계 전문가에게 가장 중요한 작업은 바로 모델링이다. 

데이터 모델링을 통해서 비즈니스 인사이트를 도출하고, 데이터의 연관 관계와 같은 분석을 위한 알고리즘을 제시해야 한다. 

 

빅데이터 분석에서 언급하는 수많은 데이터에서 놓칠 수 있는 정보를 찾아주는 것이 바로 통계 전문가라 할 수 있다. 

이들에겐 데이터 분석 전문가가 모아둔 데이터에 대한 모델링을 할 수 있는 수학적, 통계학적 능력이 필요하다.

 

4. 데이터 과학자 

데이터 과학자는 오케스트라의 지휘자라고도 한다. 

앞서 설명한 데이터 개발자, 비즈니스 분석 전문가, 통계 전문가 역할을 모두 할 수 있는 것이 바로 데이터 과학자이다. 

 

실제 빅데이터 분석 프로젝트 팀을 이런 데이터 과학자들로만 구성할 필요는 없다. 

한 명의 데이터 과학자 지휘 아래 개발자들, 비즈니스 분석 전문가, 데이터 분석 전문가, 통계 전문가가 한 팀을 이루면 된다. 

데이터 과학자가 한 명도 없다면 다른 개발자나 분석 전문가들 중에서 가장 창의력이 뛰어난 인재를 중심으로 팀을 구성하면 된다. 

 

빅데이터 분석의 중요성이 높아질수록 데이터 과학자들이 많이 필요할 것이다. 

또 데이터 과학자를 얼마나 보유하고 있는지가 향후 빅데이터 분석의 경쟁력이 될 것은 분명하다. 

 

그러나 데이터 과학자를 바로 양성하려는 욕심을 부리지는 말자. 

데이터 개발자, 비즈니스 분석 전문가, 데이터 분석 전문가, 통계 전문가를 단계적으로 양성해 나가는 것이 더욱 필요하다.  

 

이렇게 빅데이터 분석 인력을 세분화해 양성하고 프로젝트 팀을 구성하면 빅데이터 분석을 좀 더 빨리 수행할 수 있을 것이다. 

그리고 각 담당자들이 상호 보완적으로 협력한다면, 시간이 가면서 진정한 데이터 과학자로 성장해 나가지 않을까 싶다.





Trackback 0 And Comment 0

개인정보와 빅데이터가 충돌하지 않게 하는 방법

|



"본 글은 2014년 2월 14일 지디넷코리아에 기고한 칼럼입니다."


최근 금융권에서 개인정보가 대량으로 유출돼 사회적으로 큰 이슈가 되고 있다. 

비록 해킹을 통한 정보 유출이 아니었지만 개인정보 보호에 대한 중요성이 높아지는 계기가 됐다. 

 

빅데이터 분석과 관련해서도 개인정보 보호 측면이 매우 중요하다. 

많은 데이터를 처리하다 보면 개인 정보가 포함될 가능성이 높기 때문이다. 

 

특히 고객 데이터를 분석해서 개별 고객에게 맞춤형 서비스로 제공한다고 가정해 보자. 

고객은 기업이 제공하는 세심한 서비스에 감동할 수도 있지만, 반대로 자신의 정보가 노출됐다는 생각에 불편해 질수도 있다.

 

그렇다면 빅데이터 분석에서 개인정보보호는 어떻게 접근해야할까?

 

먼저 빅데이터를 처리하는 플랫폼에 보안 관련 요소들을 추가해야 한다. 

 

기존 보안 매커니즘은 정형화된 데이터를 위해 설계됐기 때문에 비정형 데이터를 분산환경에서 대량으로 처리하는 빅데이터를 위한 보안 메커니즘을 새롭게 적용할 필요가 있다. 

 

빅데이터 분석에 가장 많이 사용하는 하둡(Hadoop)의 경우 허가(Authorization)와 인증(Authentication)을 제공한다. 

허가는 사용자에게 권한을 부여하는 것이고, 인증은 사용자 자격을 검증하기 위해 사용한다. 

특히 하둡 1.0부터 네트워크상에서 인증과 통신 암호화를 통해 보안성을 확보하는 알고리즘인 커버로스(Kerberos)를 지원하고 있다. 

 

하둡과 같은 빅데이터 처리 기술들은 분산 환경이기 때문에 분산 서버들 간 통신 보안도 추가로 고려해야 한다. 

 

하둡 맵리듀스는 맵(Map)과 리듀스(Reduce)가 반복적으로 수행하는데 이 과정에서 식별자인 키로 개인정보가 포함되어 사용될 수 있으므로 특히 주의해야 한다. 

 

요즘은 빅데이터를 저장하기 위해서 NoSQL과 같은 비관계형 데이터베이스를 주로 사용한다. 

기존 관계형 데이터베이스(RDBMS)는 많은 보안 이슈들이 오랜 기간 검증되었지만 새로운 기술인 NoSQL은 아직 보안 측면에서 부족한 것이 사실이다. 

 

NoSQL 관련 보안 처리는 NoSQL 자체에 의존하기 보다 개발하는 애플리케이션에서 수행하는 것이 바람직하다. 

개인정보와 같은 중요한 데이터는 애플리케이션에서 암호화해서 저장하는 것이 필요하다. 

특히 각 NoSQL마다 인증 방식이 다를 수 있기 때문에 인증 절차를 확인하고 개발하는 것이 중요하다. 

단순히 개발 편의성 때문에 별도 인증을 거치지 않는 것은 위험하다. 

 

빅데이터 분석시 개인정보보호를 위해 시작 단계부터 보안 관련 정책들을 미리 정해 놓는 것이 매우 중요하다. 

 

물론 이러한 보안 정책과 시스템이 갖춰져 있다고 개인정보보호 이슈가 완전히 사라지는 것은 아니다. 

최근 사건과 같이 내부 인력이 유출하는 정보는 어쩔 수 없다.

 

필자는 빅데이터 분석에서 개인정보를 아예 수집하지 않으면 어떨까 한다. 

수많은 데이터에서 유의미한 정보를 찾아내기 위해 개인별이 아닌 세분화된 그룹별로 분석을 하자는 것이다. 

 

이 경우 정보 수집 단계부터 개인 정보보다 연령대와 같이 특정 그룹단위로 저장하게 된다.  

개개인의 구분이 필요하면 기존 개인 정보가 아닌 자체 고유키를 생성해서 사용하면 된다. 

 

물론 개인정보를 수집하지 않으면 분석을 통해 개인별 맞춤형 서비스를 제공하기는 어려울 것이다. 

그러나 개인 정보 유출시 발생할 수 있는 손실과 위험성을 고려하면 이런 서비스가 과연 효과적인지 검토해 볼 필요가 있다. 

 

2012년 미국 할인 매장 업체인 타깃(Target)이 고등학생 딸을 둔 부모에게 유아용품 할인쿠폰을 보내서 거센 항의를 받고 사과한 사건이 있었다. 

임신한 여성이 할인 매장에서 구매하는 패턴을 분석해서 해당 쿠폰을 발송한 것이었다. 

 

하지만 실제로 여고생이 임신중이었고 부모도 모르는 딸의 임신 사실을 빅데이터 분석으로 알아낸 것이다. 

 

이 사례는 빅데이터 분석의 효과를 나타내고 있다. 

하지만 과연 이러한 분석이 비즈니스 마케팅으로서 효과적일까? 

 

오히려 기저귀 판매량이 증가하면 맥주 판매량도 함께 늘어난다는 분석을 바탕으로 기저귀와 맥주를 함께 진열한 월마트(walmart)의 사례가 비즈니스에 보다 도움이 되지 않을까 싶다.

 

즉, 빅데이터 분석의 본질로 돌아가면 개인정보 보호와 같은 이슈도 좀더 유연하게 해결이 가능해 보인다.

 

일련의 개인 정보 유출 사건들은 빅데이터 분석 활성화에 좋지 않은 영향을 줄 수 있다. 

하지만 개인정보 이슈 때문에 빅데이터 분석을 포기하는 것은 구더기 무서워 장 못 담그는 것과 마찬가지이다. 

 

오히려 빅데이터 실시간 분석을 활용해서 개인정보보호와 같은 실시간 보안 분석도 가능해질 것이다. 

서로 지혜를 모아서 빅데이터 분석과 개인정보보호라는 상관관계를 풀어나가야 할 시점이라고 본다. 





Trackback 0 And Comment 0

모바일앱 분석으로 매출에 영향을 줄 수 있을까?

|



"본 글은 2014년 1월 9일 지디넷코리아에 기고한 칼럼입니다."


"집에 책이 많으면 아이의 학교 성적이 좋은가?"와 같은 질문을 던지면 통계학에서 쓰이는 회귀 분석은 적절한 대답을 내놓지 않는다. 

하지만 그와 약간 다른 질문에는 답을 해줄 수 있다. 예를 들면 다음과 같은 질문이다. 

"집에 책이 많은 아이는 집에 책이 전혀 없는 아이보다 공부를 더 잘하는 경향이 있는가?" 


스티븐 레빗(Steven Levitt)이 쓴 "괴짜 경제학"에 나오는 이야기이다.  

두 질문의 차이는 무엇일까? 

전자는 원인과 결과를 묻는 인과관계(Causality)에 대한 질문이다. 

후자는 둘 사이의 관련이 있는지를 알고자 하는 상관관계(Correlation)를 나타낸다. 

 

분석을 통해 상관관계를 쉽게 찾을 수 있으므로 두번째 질문에 답을 해줄수 있다. 

반면 인과관계를 찾는 것은 쉽지 않다. 

 

상관관계와 인과관계는 다음과 같이 설명할 수 있다.

 

아이스크림 판매량과 익사사고 발생의 관계를 살펴보면 강력한 양의 상관관계가 있다. 

즉 아이스크림이 많이 팔릴 때 익사사고가 많이 발생하고 반대로 아이스크림이 적게 팔릴 때 익사사고가 덜 일어난다. 


아이스크림을 못 팔게 하면 익사사고가 일어나지 않을까?  

당연히 그렇지 않다. 

다시 말해 아이스크림 판매량과 익사사고 발생은 상관관계는 있지만 인과관계는 아니다.  

결론적으로 둘 사이의 상관관계에는 다른 원인 요소가 있다. 

 

바로 기온의 변화가 원인 요소(Causal Factor)라 할 수 있다. 

날씨가 더워졌기 때문에 아이스크림이 많이 팔리고 익사사고가 더 발생하게 된 것이다.

 

그렇다면 왜 분석에서 상관관계나 인과관계가 중요할까? 

보통 상관관계를 찾아내면 앞으로의 미래를 예측할 수 있다.

아이스크림 판매량이 증가하고 있다면 물에 빠져 죽는 비율이 높아질 것을 알수 있게된다. 

 

기존 분석이 과거 데이터를 리포팅하거나 현재 상태를 모니터링하는 것이었다면 

최근 분석 트렌드는 미래를 예측하는 방향으로 옮겨가고 있으므로 상관관계를 파악하는 것은 매우 중요하다. 

 

상관관계를 파악하기 위한 상관분석(Correlation Analysis)은 두가지 요소들이 어떤 관계를 갖고 있는지를 분석하는 방법이다. 

상관분석을 위해서는 피어슨 상관계수나 스피어만 상관계수를 통해 두 요소들의 연관된 정도를 파악할 수 있다. 

회귀 분석(Regression Analysis)을 통해 두 요소들의 변화하는 과정을 살펴 상관 관계를 확인하기도 한다. 

 

그렇다면 인과관계는 분석에서 어떤 의미를 가질까? 

 

인과관계를 찾아내면 앞으로를 예측하는 것 뿐만 아니라, 미래를 변화시킬 수 있게 된다. 

위 사례를 예로 들면, 여름철 기온을 낮출 수 있다면 익사사고를 줄일 수 있을 것이다. 

 

하지만 앞서 이야기한 것과 같이 분석에서 인과관계를 찾아내는 것은 쉽지 않다. 

먼저 상관관계를 파악한 후 원인 요소를 가정해서 A/B 테스트, 스플릿 테스트 등을 통해 인과관계를 알아내야 한다.

 

필자가 진행하고 있는 모바일 분석에서도 이러한 상관관계 분석을 활용한다. 

실제로 시간대 분포가 사용자 수와 상관 관계가 있는지 분석해 보기도 했다. 

둘 사이의 상관관계가 있는 모바일 앱은 특정 시간대에 프로모션이나 이벤트를 진행함으로써 보다 많은 사용자의 참여를 이끌어 낼 수 있었다. 

 

이외에도 기간 대비 사용자 수의 증감에 대해 상관계수를 통한 연관 관계를 파악한다면 다음달에는 몇명의 사용자가 증가할 것임을 예측할 수 있게 된다. 

 

모바일 분석에서 인과관계는 다음과 같이 활용할 수 있을 듯 하다. 

 

예를 들어, 처음 모바일 앱을 다운로드한 사용자가 20분이상 사용할 경우 

해당 사용자가 한달안에 결제할 확률이 증가한다는 것을 인과관계로 찾아냈다고 가정하자. 

이런 인과관계를 파악했다면, 처음 다운로드한 사용자가 앱을 오래 사용하도록 만들면 매출이 증가하게 될 것이다. 

 

이에 따라 모바일 마케팅도 앱을 다운로드하는 것에서 최초 사용자들이 20분 이상 사용하도록 만드는 형태로 변화될 것이다. 

상관관계와 인과관계를 바탕으로 분석을 수행한다면 진정한 빅데이터의 가치를 확인 할 수 있을 것이다. 





Trackback 0 And Comment 0

비즈니스 프렌들리한 빅데이터 분석의 조건

|



"본 글은 2013년 12월 5일 지디넷코리아에 기고한 칼럼입니다."


빅데이터 분석에 관심이 높아짐에 따라 '플라이 블라인드'(Fly Blind)라는 표현을 많이 사용한다.  

앞이 안 보이는 채로 비행한다는 것이데, 비즈니스에선 데이터 분석 보단 단순히 직관에 의존해 업무을 처리하는 걸 뜻한다.

 

좋은 시나리오 작가와 유명 배우들 그리고 훌륭한 감독을 선정해 블록버스터 영화를 만든 다음, 

충분한 시장조사와 사전 분석 없이 대박을 기대하면서 전 세계에 상영하는 것과 비슷하다 할 수 있다. 

반면 빅데이터 분석은 주로 TV 시트콤에 비유된다. 

시트콤은 시청자들의 피드백에 따라 시나리오나 인물 캐릭터가 변화한다. 

매회 시청률 등을 분석해서 다음 회에 반영하는 방식이 쓰인다. 이게 바로 분석적인 접근이다.

 

처음 빅데이터 분석을 도입할 때 주요 목적은 비용 절감과 생산성 향상이었다. 

하지만 빅데이터 분석의 진정한 가치는 스마트한 의사결정, 성능 향상 그리고 전략적 목표를 달성하는데 있다. 

 

이러한 빅데이터 분석의 가치를 높이려면 어떻게 해야 할까?  

바로 분석의 KPI를 제대로 설정해야 한다. 

 

단순히 전체 고객 수, 월 매출만으로 스마트한 의사결정이나 전략적 목표를 달성할 수 없다. 

린 어낼리틱스(Lean Analytics)의 저자인 알리스테어 크롤(Alistair Croll)은 "행동 방식을 변화시킬 수 없다면 나쁜 통계"라고 했다. 

그는 비즈니스 사업 영역에 따라 각 단계별로 KPI를 적절하게 설정해야 한다고 강조한다. 


 

모바일 앱 비즈니스를 예로 들어보자.

 

초기 확장 단계에서는 많은 사용자를 확보하는 전략이 KPI가 되어야 한다. 

이에 앱 다운로드 수나 고객 획득 비용(CAC)와 같은 지표를 KPI로 설정하고 사업을 펼쳐야 한다. 

 

그러나 수익 단계에선 다르다. 단순히 사용자만 늘어나는 것 보다는 비용 대비 수익율을 높이는 것이 핵심 지표가 되어야 한다. 

고객 당 평균 매출(APRU)나 고객 생애 가치(LTV)와 같은 것을 KPI로 삼아야 할 것이다. 

고객 획득 비용과 고객 당 평균 매출를 비교할 필요도 있다.

 

매출을 올려야 하는 시점에서 고객 획득 비용이 고객당 매출보다 높다면 반드시 조정해야 하기 때문이다. 

 

이러한 KPI 설정을 통한 분석이 IT 관련 사업에만 적용할 수 있는 것은 아니다. 

 

필자가 근무하는 회사 주변에 한 중국 식당을 예로 들어보자. 

이 식당은 원래 퓨전 중국 음식점으로 시작했다가 최근  전통 중국 음식점으로 색깔을 바꿨다. 

주인 이야기로는 고객들이 퓨전 중국 음식을 낯설어해서 그랬다는데  며칠 전 가보니 오히려 이전보다 고객의 수가 줄어든 것을 볼 수 있었다. 

 

주인은 과연 어떤 분석을 기반으로 그러한 결정을 했을까?  

단순히 몇몇 아는 사람들의 평가만 듣고, 결정을 해버린건 아닐까? 

 

개인적으로는 퓨전 메뉴와 전통 메뉴를 놓고 A/B 테스트를 진행한뒤 각각의 매출 분석을 하고 의사결정을 했으면 하는 생각이 들었다. 

그랬다면 실내 인테리어부터 바꾸는 잘못된 판단으로 비용을 낭비하지 않았을 것이다.

 

결론적으로 빅데이터 분석을 통해 실제 비즈니스를 활성화하고 촉진하고자 한다면,  

분석의 KPI를 현재 상황에 따라 정확하게 설정하고 확인해 나가는 것이 중요하다고 본다. 





Trackback 0 And Comment 0

빅데이터 실시간 처리, 오픈소스 '에스퍼' 주목하라

|



"본 글은 2013년 11월 12일 지디넷코리아에 기고한 칼럼입니다."


최근 빅데이터 분석에서 실시간(real-time) 처리에 대한 요구가 늘었다. 

주요 빅데이터 기술로 널리 사용하는 하둡(Hadoop)은 배치 처리에 기반해, 하둡 맵리듀스 동작 시간을 최대한 줄일 수는 있어도 실시간 처리에는 한계가 있다.

 

빅데이터 분석은 그동안 처리하지 못했던 많은 데이터에서 의미있는 정보를 추출해 내는 것이므로 필자는 처음에만 해도 실시간 처리는 큰 의미가 없을 것으로 판단했던게 사실이다.

 

그러나 데이터 분석 컨설팅을 진행하면서 실시간 처리에 대한 요구가 꽤 높다는 것을 알게 됐다. 

예를 들어, 새로운 모바일 앱을 출시했을 때 사용자 증가 추이를 바로 확인하거나 

광고 프로모션을 진행한다면 실시간으로 광고 효과를 알고 싶다는 필요성이 생겼다. 

데이터가 많고 적음에 관계없이 현재 상황에 대한 궁금증을 빠르게 해결하는 것도, 의미가 있다는 것이다.

 

기존 데이터베이스를 활용하면 실시간 분석에 대한 요구를 만족시킬 수 있다. 

하지만 빅데이터 시대에 관계형 DB는 데이터 양과 시스템 규모, 비정형 데이터 처리에 적합하지 않다.  

대체 수단으로 NoSQL도 사용되고 있지만, 빅데이터 실시간 처리를 위해서는 인메모리(in-memory) 기술이 대세라는게 개인적인 생각이다. 

 

실시간 처리를 위한 인메모리 기술 중에서 CEP(Complex Event Processing) 기술을 주목할 것을 주문하고 싶다. 

오라클, SAP 등에서 CEP 관련 솔루션을 내놓고 있지만, 오픈소스인 Esper도 훌륭한 CEP 처리 기술이다. 

충분히 관심을 가져볼 만 하다. 

 

90년대 후반 필자가 XML 파서를 개발하던 시절을 돌이켜 보면, 초기에는 DOM(Document Object Model) 구조로 XML 문서를 파싱해서 제공했다. 

그러나 XML 문서 양이 커지면서 한번에 전체 문서를 읽고 트리 구조를 만들어서 제공하는 DOM 모델로는 한계가 있었다.

 

이 때 새롭게 등장한 구조가 바로 SAX(Simple API for XML)였다. 

SAX는 이벤트 기반으로 XML 문서를 처리했다.  

즉, XML 문서를 한 줄씩 읽어나가면서 태그, 속성 등이 나올 때마다 이벤트로 알려줌으로써 원하는 이벤트에 대해서 필요한 기능을 처리하도록 한 것이다. 

이에 따라 XML 문서 양과 관계없이 처음부터 끝까지 즉시 읽어나가면서 처리하는 것이 가능해졌다.

 

CEP에서 실시간 스트리밍 데이터를 처리하는 방식도 이와 유사하다.  

이벤트 기반 아키텍처로 실시간으로 들어오는 데이터에서 이벤트를 계속해서 발생시키고, 특정 이벤트만 필터링해서 필요한 작업을 수행하는 것이다. 

 

실제로 Esper를 테스트 해 보니 처리 속도나 안정성이 괜찮았다. 

HBase등 최근 빅데이터 관련 기술들과도 잘 연동된다. 

EPL이라는 SQL 같은 쿼리를 제공해, 쓰기도 쉽다. 

특히 오픈소스이기 때문에 앞으로 계속해서 발전할 잠재력도 있다.


 

하둡(Hadoop)에서 Esper와 같은 CEP 기술로 옮겨가는 것이 DOM에서 SAX로 이전된 것과 오버랩되고 있는 모습이다. 

물론 XML 처리에서 DOM이 SAX와 함께 꾸준히 사용된 것처럼, 하둡도 빅데이터 배치 처리로 계속해서 널리 사용될 것이다. 

 

실제로 시간대별 분석이나 요일별 분석에 실시간 데이터를 포함해서 처리하면,  

항상 현재 시간대가 최저값이 나오게 되므로 오히려 부정확한 데이터를 제공하게 된다. 

이런 경우에는 어제까지의 데이터를 기반으로 분석하는 것이 적절하다. 

 

결국 사용자 요구에 따라 가장 효율적인 기술을 선택해서 적용하면 된다. 

새로운 기술에 대해 다양하게 테스트 해보고 적절한 기술을 효과적으로 활용해 보기 바란다. 





Trackback 0 And Comment 0

데이터 시각화의 오해와 진실

|



"본 글은 2013년 10월 4일 씨넷코리아에 기고한 칼럼입니다."


일반적으로 시각화라는 것은 정보를 효율적으로 전달하기 위한 표현 기법을 의미한다. 

빅데이터에서 말하는 데이터 시각화는 데이터를 분석한  결과물을 최종 사용자에게 효과적으로 전달하는 것을 의미한다. 

사용자 입장에서 봤을 때 데이터 시각화가 갖는 의미는 무척 크다.



Accenture 리포트에 따르면, 향후 20년 동안 데이터 기반 접근법이 모든 비즈니스에 적용될 것이라고 한다. 

현재 IT 전문가나 데이터 전문가들을 위한 빅데이터 분석도 향후 누구나 쉽고 빠르게 필요한 정보에 접근할 수 있는 형태로 발전해 나갈 것으로 전망된다.


모든 사람들이 쉽고 빠르게 정보에 접근한다는 것은 바로 데이터 시각화와 관련된 문제다. 

결국 향후 빅데이터 분석 플랫폼에서도 효과적인 시각화를 제공해야 한다는 얘기다.


필자가 효과적인 데이터 시각화에 대해 설명하다 보면 대부분 어떤 도구를 사용했는지에 궁금해한다. 

실제 많은 기업들이 시각화 분석 도구라고 광고하고 있지만 시각화 도구가 있으면 누구든 분석 결과물을 쉽게 이해할 수 있어야 한다는 문제가 해결될 수 있을까?


시각화는 철저한 기획을 통해 정보를 표현하는 기법이지 단순히 시각화 도구로 해결될 수 있는 문제가 아니다. 

실제로 인포그래픽과 데이터 시각화로 유명한 비주얼닷리(visual.ly)는 별도의 툴을 사용하지 않는다. 개별적으로 기획하고, 디자인도 직접한다.



시각화를 위해서 가장 중요한 것은 스토리텔링이다. 

빅데이터를 통해 수집된 정보를 효과적으로 보여주기 위해서는 먼저 이야기를 만들어야 한다. 

정보를 어떻게 보여주느냐에 관심을 갖기 보다는 무슨 이야기로 설명해 줄 것인지를 파악해야 한다는 것이다.


영화 내용을 쉽게 잊어버리지 않는 이유가 영화 시나리오 때문인 것처럼, 스토리 텔링을 통한 데이터 시각화는 사람들에게 확실한 인상을 남겨 줄 수 있다.

그러므로 기획자는 수집된 데이터에서 사용자에게 어떤 정보가 필요한지를 파악해서 스토리를 구성해야 한다.


스토리텔링이 효과적으로 이루어졌다고 해서 시시각각 변화하는 데이터를 매번 새롭게 디자인 하는 것은 무리다. 

그래서 다음 단계로 스토리텔링이 완료된 정보를 정제해서 프로그래밍으로 표현할 수 있어야 한다. 

이 때 차트와 같은 여러 도구들을 사용할 필요가 있다. 

처음부터 도구에 맞춰 시각화를 고려하지 말고 상상력을 동원해서 스토리를 구성하고 그 스토리에 적합한 도구들을 찾아서 시각화를 자동화 해보자는 것이다.


시각화를 자동화 하기 위해서는 R이나 다양한 유/무료 차트 툴을 버무려 쓰면 된다. 

대부분의 도구들이 커스터마이징을 지원하므로 디자이너와 협업해 스토리 구성에 적합한 색상으로 변경할 수도 있다.


시각화는 색상, 이미지, 숫자, 문자 등 다양한 요소로 표현할 수 있는 분야다. 

그런만큼, 관련 도구를 제한해 사용함으로써 가능한 시각화의 범위를 좁히는건 바람직하지 않다는 생각이다.


빅데이터 시대의 기술과 관련하여 수학자, 통계학자들이 주목받는 것처럼, 

앞으로는 데이터 시각화와 관련된 스토리텔러, 디자이너들도 중요한 역할을 하게 될 것이다.


마지막으로 인포그래픽 디자인 회사인 하이퍼액트(HYPERACT)의 조쉬 스미스(Josh Smith)가 이야기한  

효과적인 시각화를 위한10가지  디자인 단계를 참고하기 바란다.


1단계: 데이터 수집 (Gathering Data)

2단계: 모든 정보 파악 (Reading Everything)

3단계: 스토리 찾기 (Finding the Narrative)

4단계: 문제 정의 (Identifying Problems)

5단계: 스토리 구조 만들기 (Creating a Hierarchy)

6단계: 와이어프레임 만들기 (Building a Wireframe)

7단계: 표현도구 및 기법 선택 (Choosing Format)

8단계: 시각화 접근 방법 선택 (Determining a Visual Approach)

9단계: 정제 및 테스트 (Refinement and Testing)

10단계: 시각화 공개 (Releasing it into the World)





Trackback 0 And Comment 0

빅데이터 분석의 성공 열쇠~

|



"본 글은 2013년 9월 5일 씨넷코리아에 기고한 칼럼입니다."


빅데이터에 대한 관심이 높아지면서 대기업 뿐만 아니라, 미래창조과학부, 서울시 등 정부기관도 

빅데이터 분석 기술과 관련된 분야에 적극적인 투자를 하고 있는 듯 합니다. 


매일일보의 김창성 기자님이 정리한 "빅데이터 시대 도래, 성공 열쇠는"이란 기사를 보면  

빅데이터에 대한 필요성은 인식하고 있지만, 성과에 대한 불확실성 등으로 인한 문제점들을 잘 지적한 것 같습니다. 

이런 문제점을 해결하기 위해 빅데이터 분석의 성공에 대한 핵심이 무엇인지 제 나름대로 생각을 정리해 봤습니다. 



빅데이터 분석은 One-Time Project가 아니다.


빅데이터 분석은 한번 구축하면 되는 SI 프로젝트가 아닙니다. 

빅데이터 분석은 장기간에 걸친 시간, 돈, 전문지식의 투자로 생각해야 합니다. 

다시말하면, 오랜 기간동안 데이터를 자산으로 만들고, 분석을 위한 인프라를 구축해야 하는 것입니다. 


그렇다면 왜 이렇게 거대한 투자를 해야 하는가? 

빅데이터 분석은 매우 빠르게 변화하는 환경에 대처하기 위한 가장 효과적인 관리방법이기 때문입니다. 

즉, Change Management(변경관리)의 활동으로서 빅데이터 분석을 바라봐야 합니다.

 

또한 제가 빅데이터에서의 Analytics의 정의 에서 이야기한 것처럼, 

넓은 의미의 빅데이터 분석을 통해 최종 목표인 비즈니스를 보다 활성화시킬 수 있습니다.

그러기 위해서 데이터에서 인사이트를 찾는 것에서 그치지 않고, 실행에 옮겨서 실제로 가시적인 효과를 만들어 내야 합니다. 


이제는 빅데이터의 필요성에 대해서는 모두 공감하는 분위기 입니다. 

그렇다면 실제로 빅데이터를 통해 비즈니스에서 성과를 낼 수 있는 방법이 필요하다고 봅니다. 

그럴때 빅데이터가 순간순간 유행하는 Buzzword가 아닌 진정한 기술로 거듭나지 않을까 합니다. 


빅데이터의 성공 요소 


그렇다면 이런 빅데이터 분석의 성공 요소는 어떤 것이 있을까요? 

개인적으로 빅데이터 분석과 관련된 기술은 별로 중요하지 않다고 봅니다. 

왜냐하면 분석 툴이나 빅데이터 관련 기술들은 학습해서 적용하는데는 그리 오랜 시간이 걸리지 않기 때문입니다. 


인재 양성


현재 빅데이터 분석과 관련하여 가장 많이 이야기하는 부분이 바로 빅데이터 인재 양성입니다. 

제가 생각해도 빅데이터 분석을 할 수 있는 인력이 가장 먼저 필요하다고 봅니다. 

여기서 인재는 빅데이터 분석 툴을 다룰 줄 아는 사람이 아닙니다. 

솔직히 기술적 스킬이 높은 사람보다는 IT를 이해하면서 수학, 통계학에 대한 지식과 분석 능력을 갖춘 사람이 더 중요하기 때문입니다. 


또한 비즈니스와 관련된 용어로 대화를 할 수 있어야 합니다. 

대부분의 해당 비즈니스 전문가들은 IT를 잘 모르기 때문에, 기술적인 멘트보다는 각 비즈니스를 이해할 수 있는 열린 마음이 있어야 합니다. 

당연히 IT 기술에 대한 이해도 높아야 하고, 특정 기술이나 방법론에 치우지지 않아야 하는 것도 중요하겠죠. 


사고방식의 변화


다음으로 중요한 것이 바로 사고 방식을 바꿔야 합니다. 

제가 빅데이터 관련 강의를 할때마다 항상 하는 이야기가 있습니다. 


우리는 주어진 문제를 해결하는데 탁월한 능력이 있습니다. 

왜냐하면 어릴 때부터 문제를 푸는 교육을 계속 받아왔기 때문이죠. 

그래서인지 스스로 문제를 만들고 나서 해결하는 능력이 부족합니다. 


이 부분이 바로 빅데이터 분석에 있어서 가장 아쉬운 부분입니다.

빅데이터 분석은 수많은 데이터에서 놓칠 수 있는 숨겨진 의미를 찾아내는 것입니다. 

이를 위해서는 상상력을 동원한 수많은 가정들을 미리 만들고, 

빅데이터를 통해 테스트하고 검증하는 것이 필요하므로 먼저 사고 방식을 변경할 필요가 있습니다. 


이런 사고방식의 변화를 쉽게 접근하기 위해서는 우선 해답을 찾으려 하지 않고, 먼저 적절한 질문을 만들어 보는 방법이 좋다고 합니다. 


사고방식의 변화와 관련해서 한가지 중요한 점이 더 있습니다. 

의사결정에 숨어있는 함정들에서 정리한 것과 같이 데이터에 의한 의사결정보다 직관적인 결정을 내리는 경우가 더 많습니다. 

특히 중요한 의사결정일수록 이러한 경향이 더욱 높다고 합니다. 


빅데이터 시대에는 데이터 분석으로 얻어낸 결과를 실제 비즈니스에 적용하는 것이 매우 중요하다고 앞서 이야기했습니다. 

그러므로 의사결정에 있어서 감각적이고 직관적인 결정보다는 데이터에 기반한 결정을 할 수 있는 문화가 중요하다고 할 수 있습니다. 


빅데이터를 위한 조직과 프로세스


빅데이터 성공을 위한 요소로 조직과 프로세스도 이야기할 수 있습니다. 

앞서 빅데이터 분석을 위한 인재의 중요성을 이야기 했지만, 한두명의 분석 전문가로 할 수 있는 것은 별로 없을지도 모릅니다. 


오히려 빅데이터 분석을 위한 센터를 구성하고, 

각 비즈니스 팀에도 분석 전문가를 배치해서 전략을 수립하고 개발, 마케팅, 판매를 진행하는 것이 바람직합니다. 


또한 빅데이터 분석을 한다는 것은 빠르게 변화 환경에 대처할 수 있다는 것이므로

개발 환경도 애자일 방법론과 같이 프로토타이핑을 통해 빨리 확인하고 수정할 수 있는 프로세스를 가지고 있어야 할 것입니다. 

전통적인 폭포수 모델과 같은 프로세스는 빅데이터 분석의 결과를 실행에 옮기는데 제약이 있기 때문이죠. 


마치면서


위에서 이야기한 인재 양성, 사고방식 변화, 조직과 프로세가 갖춰지고 나서 데이터와 관련 기술, 아키텍처들을 이야기 하는 것이 바람직하지 않을까 생각합니다. 

해외 사례를 보더라도 배치 처리를 위해서는 Hadoop을 사용하고, 

스트림데이터를 실시간으로 처리하기 위해 CEP(Complex Event Processing)을 사용하는 등 기술은 필요에 따라 골라서 활용하면 되기 때문입니다. 

전문가들은 빅데이터 분석은 IT를 넘어서 헬스케어, CRM, 제품 생산 등 각 분야로 확대되어 갈 것으로 예상하고 있습니다.  

이러한 빅데이터 분석의 성공을 위해서 어떤 것을 먼저 준비해야 할지 정리해 봤습니다. 





Trackback 0 And Comment 0
prev | 1 | next