'2013/08'에 해당되는 글 2

  1. 2013.08.18 2013 Journal Impact Factor
  2. 2013.08.16 빅데이터 대항해 시대의 핵심 기술, 하둡 (Hadoop)

2013 Journal Impact Factor

2013 Journal Impact Factor

Computer Vision, Image Processing, Machine Learning, Neural Network, Robotics, Control, Automation, Sensor Network

지난해의 impact factor와 지난 5년의 impact factor를 평가함 (from JCR)

위의 관심분야의 주요 저널위주로 정리

----------------------------------------------------------------------------------------------------------

No Journal name (Computer Vision, Machine Learning, Neural Network) Impact factor
2012 5-years
1 IEEE T. on Pattern Analysis and Machine Intelligence (TPAMI) 4.795 6.144
2 IEEE T. on Neural Networks and Learning Systems  (TNNLS) 3.766 3.632
3 Int. J. of Computer Vision   (IJCV) 3.623 4.856
4 J. Machine Learning Research  (JMLR) 3.42 4.284
5 IEEE Signal Processing Magazine 3.368 6.895
6 IEEE T. on Systems, Man, and Cybernetics Part B   (SMC-B) 3.236 3.949
7 IEEE T. on Image Processing   (TIP) 3.199 4.017
8 IEEE T. Signal Processing (TSP) 2.813 3.068
9 Pattern Recognition   (PR) 2.632 3.219
10 IEEE T. on Systems, Man, and Cybernetics Part C  (SMC-C) 2.548 3.105
11 Artificial Intelligence 2.194 2.566
12 IEEE T. on Systems, Man, and Cybernetics Part A  (SMC-A) 2.183 2.44
13 Image and Vision Computing   (IVC) 1.959 1.952
14 Neural Networks 1.927 2.501
15 IEEE T. on Circuits and Systems for Video Technology (TCSVT) 1.819 2.556
16 Neural Computing 1.76 2.384
17 IEEE Signal Processing Letter 1.674 1.595
18 Neurocomputing 1.634 1.811
19 Machine Learning 1.467 2.143
20 Pattern Recognition Letters 1.266 1.529
21 Computer Vision and Image Understanding   (CVIU) 1.232 2.202
22 Machine Vision Applications 1.103 1.42


----------------------------------------------------------------------------------------------------------

No

Journal name (Robotics, Control, Automation, Sensor Network)

Impact factor
2012 5-years
1 Automatica 2.919 3.944
2 Int. Journal of Robotics Research (IJRR) 2.863 3.587
3 IEEE T. on Automatic Control (TAC) 2.718 3.411
4 IEEE T. Robotics (TRO) 2.571 3.643
5 IEEE Robotics and Automation Magazine 2.484 3.097
6 Autonomous Robots 1.908 1.89
7 ACM T. on Sensor Networks  (TOSN) 1.444 2.485





신고

'공학' 카테고리의 다른 글

2013 Journal Impact Factor  (0) 2013.08.18
빅데이터 대항해 시대의 핵심 기술, 하둡 (Hadoop)  (0) 2013.08.16
받은 트랙백이 없고 댓글이 없습니다.

빅데이터 대항해 시대의 핵심 기술, 하둡 (Hadoop)


대항해 시대는 지중해에서 쓰던 노를 젓는 갤리선과 다른 배들이 만들어졌기 때문에 가능했습니다. 카라크
와 카라벨 같은 범선들이 만들어졌으며, 자체 동력이 없고 바람과 해류를 이용하는 만큼 먼 바다를 향하는데 효율적이었습니다. 빅데이터 대항해 시대는 병렬처리 시스템에 기반을 두고 있습니다. 기존의 데이터 처리는 고성능 컴퓨터를 이용했습니다. 하지만 빅데이터를 처리하기 위해서는 병렬처리시스템, 흔히 클라우딩 컴퓨팅이라고 부르는 기술을 사용할 수 밖에 없습니다. 하둡(hadoop)은 바로이 클라우딩 컴퓨팅을 이용해 안정적이고 효과적으로 빅데이터를 처리할 수 있게 해줍니다. 정확히 하둡은 더글러스 커팅이 구글에서 발표한 대용량 데이터 저장을 위한 파일 시스템과 분석 방법인 맵리듀스 알고리즘을 오픈소스 소프트웨어 프레임워크로 만든 것입니다.

하둡의 구성

하둡은 분산파일 시스템인 HDFS(Hadoop Distributed File System)과 MapReduce라는 이름의 분산처리 시스템으로 구성되어 있습니다. 하둡의 분산파일 시스템인 HDFS와 분산처리 시스템인 MapReduce는 물리적으로 같은 서버들에 공존하는 것이 일반적입니다. 이 두 시스탬 모두 하나의 마스터와 다중슬레이브 구조를 갖는데 다중 슬레이브들의 경우 각 서버마다 HDFS 슬레이브와 MapReduce 슬레이브가 같이 놓인다 것입니다. 많은 경우 마스터들은 별도 서버에 실행하지만 둘을 같은 서버에 실행하기도 합니다.

 

구글파일 시스템을 오픈소스로 만든 것이 하둡의 파일시스템 HDFS입니다.  

인터넷 데이터는 매우 빠른 속도로 늘어나기 때문에 컴퓨터 성능을 높이는 방법으로 대응하기가 불가능했습니다. 구글은 처음부터 컴퓨터 성능을 높이는 방법이 아니라 저성능 컴퓨터의 갯수를 늘리는 방법을 선택했습니다. PC수준의 컴퓨터를 병렬로 연결해 고가의 서버와 같은 성능을 내는 방법입니다.데이타의 양이 늘어나면 저렴한 PC를 추가로 연결하기 때문에 비용 부담은 줄어듭니다. 문제는 많은수의 저가 컴퓨터를 사용하기 때문에 거의 항상 고장 난 컴퓨터가 존재할 수밖에 없다는 점입니다. 데이터가 여러 컴퓨터에 분산되어 있기 때문에 원하는 데이터를 빠르게 찾아내는 것도 더 어려워집니다.즉 일부 컴퓨터가 고장 나더라도 전체 시스템은 안정을 유지해야 하고, 데이터 손실이 없어야 하며, 데이터 요구에 빠르게 대응할 수 있어야 합니다. 이런 조건에 대응하는 것이 구글파일 시스템, 이를 오픈소스로 만든 것이 하둡의 파일시스템인 HDFS인 것입니다. 

 

하둡의 대용량 데이터를 분석하는 방법, 맵리듀스   

맵리듀스는 대용량 데이터를 분석하는 방법으로, 이름 그대로 맵과 리듀스 두 단계로 이루업집니다. 구글 번역기를 생각하면 쉽게 이해할 수 있습니다. 구글 번역기에서 단어를 입력하면 가장 좋은 번역어가표시되고 그 아래에 다른 번역어를 빈도수와 함께 표시해 줍니다.  

'부'라는 단어가 사용된 문장과 그 번역 문장을 많은 수의 컴퓨터가 나누어 정리합니다. 부와 함께각 영어 단어가 사용된 횟수를 단어별로 셉니다. 이 과정이 "맵"입니다. 그리고 이를 취합해 종합적으로 영어 단어별로 사용된 횟수를 표시합니다. 이 과정이 '리듀스'입니다. 최종적으로 제시되는 번역어는 리듀스에서 가장 많이 사용된 것으로 집계된 단어입니다. 추가로 각 단어는 빈도에 따라 자주 쓰는번역, 가끔 쓰는 번역 등으로 표시됩니다.

여러 단어를 번역하는 경우는 '부와 명예'를 입력하면 'Riches and honor', '부와 빈곤'을 입력하면 'Wealth and poverty'가 각각 표시됩니다. 맵 과정에서 '부'가 '명예','빈곤'과 같이 사용된 경우를 표시하기 때문에 '부'에 대해 다른 결과가 나옵니다. 빅데이터 사례에서 자주 볼 수 있는 단어들의 관계도는 같은 과정을 거쳐 나온 결과입니다. 맵리듀스의 속도는 맵에 사용되는 컴퓨터 수에 따라 결정됩니다.  

 

하둡 에코시스템 : HDFS와 맵리듀스 사용하기 위한 유틸리티를 총칭합니다.  

문제는 하둡이 순차적으로 데이터를 사용하는 일괄처리 방식이기 때문에 여러 작업을 동시에 할 수 없습니다. 데이터 유실을 막기 위한 방법이나 파일시스템의 효율성 등에서도 여전히 개선의 여지가 있습니다. 또 하둡은 오픈소스 소프트웨어이기 때문에 사용 설명이나 운영 지원을 기대하기가 어렵습니다.이런 문제를 해결하기 위해 하둡과 관련된 오픈소스 소프트웨어를 좀 더 사용하기 편하게 패키지화하고 관련 서비스까지 묶어 제공하는 기업이 크게 늘고 있습니다. IBM, 오라클, EMC, SAS 등 여러 기업이 움직이고 있습니다. 하둡이 오픈소스로 공개되어 있기 때문에 현재는 이를 바탕으로 빅데이터 대항해 시대를 향해 가고 있습니다. 하지만 여러 문제를 해결하고 실질적인 서비스를 제공하는 과정에서 어떤 새로운 프레임워크가 제안될 지는 모릅니다. 자칫 뒤져지면 지금 컴퓨팅 시스템이 특정 운영체제(OS)와 프로그램에 종속된 것처럼 빅데이터 활용도 제약받을지 모릅니다. 빅데이터 대항해시대의 항해술, 하둡의 진화에 집중해야 할 이유입니다. 

 

♣   자료출처   ㅣ   TECH  &  BEYOND   JULY   2013


신고

'공학' 카테고리의 다른 글

2013 Journal Impact Factor  (0) 2013.08.18
빅데이터 대항해 시대의 핵심 기술, 하둡 (Hadoop)  (0) 2013.08.16
받은 트랙백이 없고 댓글이 없습니다.

티스토리 툴바