요약
소제목
tacademy
softmax, normalization의 한가지 방법이다. output이 확률값의 특성을 띄게끔 normalization하는 방법이다.
likeliood, classification에서 많이 사용한다.
에러의 제곱은 regression에서 많이 사용한다.
에러의 제곱이 가정하고 있는 것, upsettion??
왜 다르게 사용하는가, 추론의 평가별 많이 사용하는 것.
means cared에러를 사용??질문이 잘 안들린다.
인공지능 vs 기계학습
신경망이 어떻게 학습하는지?
딥러닝의 방식이 뉴럴렐 방식이다. neural net 방식??
인공지능과 기계학습의 다른점
기계학습은 프로그래머가 룰을 제공해주고 데이터와 룰을 통해 결과를 내고,
인공지능은 결과와 데이터를 통해서 룰을 생성해내는 것이다??
기계학습은 인공지능을 구현하기 위한 한 방법이다.
기계학습과 신경망
데이터로부터 학습하는 방법이고, 신경망은 방법을 어떻게 학습할 것인가를 말한다.
딥러닝은 매우 깊은 신경망을 말한다.
추론방법을 정하고, 추론을 평가하고, 최적화하는뎅
확률로 나타내는 이유는 뭐지??
어떻게 update를 시킬 것인가가 추론평가라는 건데?? umm...
최적화는 별로 신경안쓴다??
연결된 부위만 시냅스인가?? 전체이름은 뉴런이고?
퍼셉트론은 또 뉴런이랑 다른가보지?
아마, 함수랑 같을 경우는, 모델을 update 시켜야 하지 않을까?
활성함수는 sigmoid 함수를 사용한다는데?
가중치를 적용한 입력의 합을 계산하면, 값이 나오는데 이 값을 기준을 가지고 분류해야 한다.
이때, 분류의 기준이 되는 것을 계단함수라고 한다.
입력에 알맞은 출력이 나오도록 뉴런의 연결들을 수정하는 것이 퍼셉트론의 일
퍼셉트론은 뉴런을 만드는 알고리즘을 말하는 건가?
and 연산을 구해야할 모델로 잡았을 때를 가정하고 예시를 설명하는건가?
bias는 하나의 가중치로 볼 수 있다??
퍼셉트론을 어떻게 학습시킬 수 있을까?
데이터값을 가지고, 계산을 한 후 값이 맞는지 평가한 후, 값이 일치하지 않으면 가중치의 값을 조정한다.
합이니까 원래의 값이 0이어야되면 가중치를 낮추고, 1이어야 되면 가중치를 높이는데. 모든 퍼셉트론에서 그렇게 하는건가?
가중치를 찾는것이 적절한 기울기를 찾는거란다! w가 기울기니까 그런가? 음 직관적으로 와닿지는 않는군.
softmax, normalization의 한가지 방법이다. output이 확률값의 특성을 띄게끔 normalization하는 방법이다.
likeliood, classification에서 많이 사용한다.
에러의 제곱은 regression에서 많이 사용한다.
에러의 제곱이 가정하고 있는 것, upsettion??
왜 다르게 사용하는가, 추론의 평가별 많이 사용하는 것.
means cared에러를 사용??질문이 잘 안들린다.
인공지능 vs 기계학습
신경망이 어떻게 학습하는지?
딥러닝의 방식이 뉴럴렐 방식이다. neural net 방식??
인공지능과 기계학습의 다른점
기계학습은 프로그래머가 룰을 제공해주고 데이터와 룰을 통해 결과를 내고,
인공지능은 결과와 데이터를 통해서 룰을 생성해내는 것이다??
기계학습은 인공지능을 구현하기 위한 한 방법이다.
기계학습과 신경망
데이터로부터 학습하는 방법이고, 신경망은 방법을 어떻게 학습할 것인가를 말한다.
딥러닝은 매우 깊은 신경망을 말한다.
추론방법을 정하고, 추론을 평가하고, 최적화하는뎅
확률로 나타내는 이유는 뭐지??
어떻게 update를 시킬 것인가가 추론평가라는 건데?? umm...
최적화는 별로 신경안쓴다??
연결된 부위만 시냅스인가?? 전체이름은 뉴런이고?
퍼셉트론은 또 뉴런이랑 다른가보지?
아마, 함수랑 같을 경우는, 모델을 update 시켜야 하지 않을까?
활성함수는 sigmoid 함수를 사용한다는데?
가중치를 적용한 입력의 합을 계산하면, 값이 나오는데 이 값을 기준을 가지고 분류해야 한다.
이때, 분류의 기준이 되는 것을 계단함수라고 한다.
입력에 알맞은 출력이 나오도록 뉴런의 연결들을 수정하는 것이 퍼셉트론의 일
퍼셉트론은 뉴런을 만드는 알고리즘을 말하는 건가?
and 연산을 구해야할 모델로 잡았을 때를 가정하고 예시를 설명하는건가?
bias는 하나의 가중치로 볼 수 있다??
퍼셉트론을 어떻게 학습시킬 수 있을까?
데이터값을 가지고, 계산을 한 후 값이 맞는지 평가한 후, 값이 일치하지 않으면 가중치의 값을 조정한다.
합이니까 원래의 값이 0이어야되면 가중치를 낮추고, 1이어야 되면 가중치를 높이는데. 모든 퍼셉트론에서 그렇게 하는건가?
가중치를 찾는것이 적절한 기울기를 찾는거란다! w가 기울기니까 그런가? 음 직관적으로 와닿지는 않는군.
일단 들으면서 메모, 다 듣고 정리할 것
소제목
소제목
소제목
댓글 없음:
댓글 쓰기