1. 윈도우 명령어 모음 [ 프로세스 확인 및 죽이기 ] 프로세스 확인: netstat -a -o 프로세스 죽이기: taskkill /f /pid {PID 번호} 2. 리눅스 명령어 모음 [ 사용중인 포트 확인 ] 포트 확인: netstat -tulpn | grep LISTEN [ 특정 프로세스 죽이기 ] 프로세스 죽이기: ps -ef | grep {프로세스 이름} | awk '{print $2}' | xargs kill -9 ex) ps -ef | grep logstash | awk '{print $2}' | xargs kill -9 [ 모든 프로세스 죽이기 ] 프로세스 죽이기: ps x | awk {'print $1'} | xargs kill [ VI에서 정규식으로 텍스트 찾기 ] ?검색어 입력 후 ..
1. Fitbit 소개 [ Fitbit 소개 ] Fitbit이란?: 걸음수뿐만 아니라 이동거리, 칼로리 소모량 등 기본적인 활동에서부터 다양한 운동까지 모니터링하는 피트니스 파트너 Fitbit 탄생: 2007년 무선 센서기술이 우리의 건강 및 피트니스에 엄청난 영향을 미칠 수 있는 수준까지 발전했음을 깨닫고, 사람들의 활동 방식에 획기적인 변화를 가져다 줄 웨어러블 제품 개발 시작 Fitbit 목표: 재미있고 의욕을 북돋아주는 제품을 제작하여 건강한 라이프스타일 장려 Fitbit 사명: 모두가 건강하고 활동적인 삶을 살 수 있도록 동기를 부여하고 의욕을 복돋아주는 것 [ Fitbit 기능 ] 모니터링 기능: 활동량, 운동, 몸무게, 수면등을 모니터링하여 24시간 실시간 정보를 제공한다. 동기화: 활동 데..
오늘 읽고 설명할할 논문은 Deep Reinforcement Learning with Double Q-learning입니다. 이 논문의 선행 논문은 Playing Atari with Deep Reinforcement Learning 입니다. 이 논문을 읽지 않았다면 여기에서 참고하세요! 0. Abstract [ Abstract ] 기존의 Q-Learning Algorithm은 특정 조건에서 action-value를 Overestimate(과평가)한다. => 보상받을 값에 따라서 다음 행동이 결정되는데, 잘못된 행동에 대한 action-value값이 과평가되면 잘못된 방향으로 학습이 진행될 수 있다. 기존의 Q-Learning은 이러한 overestimation때문에 몇몇 게임에서 좋은 성능을 보이지를 못..
0. Abstract [ Abstract ] High-Dimensional Sensory Input으로부터 Reinforcement Learning을 통해 Control Policy를 성공적으로 학습하는 Deep Learning Model을 선보입니다. 이 모델은 Atari는 CNN 모델을 사용하며, 변형된 Q-learning을 사용하여 학습되었습니다. 여기서 Q-learning이란 input이 raw pixels이고, output은 미래의 보상을 예측하는 value function입니다. 실제로 게임을 학습할 때, 스크린의 픽셀값들을 입력으로 받고, 각 행위에 대해 점수를 부여하고, 어떤 행동에 대한 결과값을 함수를 통해 받게 됩니다. 아타리는 2600개가 넘는 다양한 게임을 학습시키는데 동일한 모델과..
1. E-Greedy Algorithm(입실론 그리디 알고리즘)이란? [ Greedy Algorithm(그리디 알고리즘) ] Greedy Algorithm은 미래를 생각하지 않고 각 단계에서 가장 최선의 선택을 하는 기법이다. 즉, 각 단계에서 최선의 선택을 한 것이 전체적으로도 최선이길 바라는 알고리즘이다. 물론 당연히 미래의 가치를 고려하지 않기 때문에 항상 최선의 결과를 반환하지는 않는다. 예를 들어 주사위 3개를 굴린 결과가 아래와 같고, 가장 높은 숫자를 반환할 주사위를 선택한다고 가정하자. 주사위1: 5 주사위2: 3 주사위3: 1 주사위4: 6 Greedy Algorithm에 따르면 우리는 주사위 4를 선택해야한다. 하지만 다음에 주사위4를 골라도 최상의 결과가 반환될 것이라는 확신을 가질수..