์ด์ deep learning ํด๋์ค ์ฝ๋ ๊ตฌํ๊ณผ ์ด์ด์ง๋ ๋ด์ฉ์ด๋ฏ๋ก, ์ด์ ๊ธ ๋จผ์ ํ์ธํ๋ ๊ฒ์ด ์ข์ต๋๋ค. https://heejins.tistory.com/36 float: # ๊ฐ ํ(๊ด์ฐฐ์ ํด๋น)์ softmax ํจ์ ์ ์ฉ softmax_preds = softmax(self.prediction, axis = 1) # ์์ค๊ฐ์ด ๋ถ์์ ํด์ง๋ ๊ฒ์ ๋ง๊ธฐ ์ํด softmax ํจ์์ ์ถ๋ ฅ๊ฐ ๋ฒ์๋ฅผ ์ ํ self.softmax_preds = np.clip(softmax_preds, self.eps, 1 - self.eps) # ์ค์ ์์ค๊ฐ ๊ณ์ฐ ์ํ softmax_cross_entropy_loss = ( -1.0 * self.target * np.log(self.softmax_preds) - (1.0 - s..