목록코세라 (11)
:)
The Sequential API레이어를 직선으로 쌓아서 모델을 구성 (단순한 설계)Load the Data and Split the Data into Train/Test SetsHappy House 데이터셋을 활용하여 얼굴 이미지에서 사람의 미소 여부를 판단하는 모델모델 목표: 웃고 있는 사람만 Happy House에 입장할 수 있도록 웃는 얼굴 분류X_train_orig, Y_train_orig, X_test_orig, Y_test_orig, classes = load_happy_dataset()# Normalize image vectorsX_train = X_train_orig/255.X_test = X_test_orig/255.# ReshapeY_train = Y_train_orig.TY_test..
Convolutional Neural NetworksZero-Padding패딩의 주요 이점:크기 유지: 네트워크를 깊게 쌓아도 출력 볼륨의 높이와 너비가 줄어들지 않도록 해줌. 특히 same convolution에서는 크기가 정확히 유지됨.가장자리 정보 보존: 이미지 가장자리의 픽셀들이 다음 레이어에 영향을 줄 수 있도록 정보를 유지함.def zero_pad(X, pad): X_pad = np.pad(X, ((0, 0), (pad, pad), (pad, pad), (0, 0)), mode='constant', constant_values=0) return X_padnp.random.seed(1)x = np.random.randn(4, 3, 3, 2)x_pad = zero_pad(..
TensorFlowBasic Optimization with GradientTapeimport h5pyimport numpy as npimport tensorflow as tfimport matplotlib.pyplot as pltfrom tensorflow.python.framework.ops import EagerTensorfrom tensorflow.python.ops.resource_variable_ops import ResourceVariableimport timetrain_dataset = h5py.File('train데이터 경로', "r")test_dataset = h5py.File('test데이터 경로', "r")x_train = tf.data.Dataset.from_tensor_slice..

OptimizationGradient Descentimport numpy as npimport matplotlib.pyplot as pltimport scipy.ioimport mathimport sklearnimport sklearn.datasetsfrom opt_utils_v1a import load_params_and_grads, initialize_parameters, forward_propagation, backward_propagationfrom opt_utils_v1a import compute_cost, predict, predict_dec, plot_decision_boundary, load_datasetfrom copy import deepcopyfrom testCases import ..
Gradient CheckingPackagesimport numpy as npfrom testCases import *from public_tests import *from gc_utils import sigmoid, relu, dictionary_to_vector, vector_to_dictionary, gradients_to_vector%load_ext autoreload%autoreload 2 Dimensional Gradient Checkingforward propagationdef forward_propagation(x, theta): J = theta * x return Jx, theta = 2, 4J = forward_propagation(x, theta)print ("J..