스도쿠 Gordonian Logic
출처 : http://flogsta.tistory.com/679 스도쿠 풀이의 기초부터 기법에 대한 설명부터 해당 기법을 사용할 수 있는 풍부한 예제까지 들어있다. 읽어보니, 그동안 내가 사용해왔던 기법부터, 처음 들어보는 기법까지 다양하다. (그 중 어떤 것은 아직도 이해가 잘 안되는 것이 있다. 써보고 잘 되니까 쓰는 것뿐.^^) 그 중에서, 고도니안 로직(Gordonian Logic)이 인상적이다. 이 기법은 이 책의 저자인 피터 고든(Peter Gordon)이 창안했기에 자신의 이름을 따서 붙인 것인데, 이 책에서 해당 기법을 개발하게 된 상황을 설명하고 있다.(아래부터 스도쿠 용어가 많이 등장하고 있습니다. 이를 이해하시려면 여기를 참고하세요.)친구가 추측하지 않고서는 도저히 풀 수 없다고 투덜..
2017.06.15
no image
[Deep Learning] 4. 신경망 학습 (손실함수, 미니배치)
이전 Deep Learning 포스팅 [Deep Learning] 1. 단층 퍼셉트론과 다층 퍼셉트론 [Deep Learning] 2. 신경망 (Sigmoid, ReLU) [Deep Learning] 3. 출력층 (항등함수, 소프트맥스함수) 저번 포스팅에서는 출력층의 항등함수를 이용하여 회귀, 소프트맥스함수를 이용하여 분류하는 문제를 다루었다. 이번 포스팅에서는 신경망 학습 이라는 주제를 다룰 것이다. 학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것을 뜻한다. 이러한 신경망이 학습할 수 있도록 해주는 지표인 손실함수를 소개한다. 손실함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습의 목표이다. 이번 장에서는 손실 함수의 값을 가급적 작게 만드는 기법으로 함수의..
2017.06.12
no image
[Deep Learning] 3. 출력층 (항등함수, 소프트맥스함수)
이전 Deep Learning 포스팅 [Deep Learning] 1. 단층 퍼셉트론과 다층 퍼셉트론 [Deep Learning] 2. 신경망 (Sigmoid, ReLU) 기계학습 문제는 분류(Classification)와 회귀(Regression)로 나눌 수 있다. 분류는 데이터가 어느 클래스에 속하느냐의 문제이고, 회귀는 입력 데이터에서 연속적인 수치를 예측하는 문제이다. 이렇듯, 신경망의 출력층에서는 항등함수와 소프트맥스 함수를 이용하여 출력 값을 얻을 수 있다. 이는 분류와 회귀에 있어서 중요한 역할을 수행하게 된다. 또한, 기계학습의 문제풀이는 학습과 추론(Inference)의 두 단계를 거쳐 이뤄진다. 학습단계에서 모델을 학습하고, 추론 단계에서 앞서 학습 된 모델로 미지의 데이터에 대해서 추..
2017.06.12
영어로 프레젠테이션 할 때 유용한 표현들
프레젠테이션 시작할 때 Good morning / Good afternoon.인사 Hello, Thank you for being here.여기 와 주셔서 감사합니다. The objective of my presentation is …저의 발표 목표는 …. The topic of my presentation today is …저의 발표 주제는 … What I’m going to talk about today is ..제가 말씀 드릴 내용은 … The presentation will focus on (A), (B), and (C)…발표는 …에 집중할 겁니다. By the end of the presentation, I hope that … (your goal)발표가 끝나면, 저는 … 하기를 기대합니다. I..
2017.06.08