。゚(*´□`)゚。

코딩의 즐거움과 도전, 그리고 일상의 소소한 순간들이 어우러진 블로그

[네이버클라우드] 클라우드 기반의 개발자 과정 7기 147

5/24 git, gradle

깃허브 pull,, 접속.. PowerShell 7.3.4 PS C:\Users\bitcamp> cd git PS C:\Users\bitcamp\git> git clone https://github.com/eomcs/eomcs-docs Cloning into 'eomcs-docs'... remote: Enumerating objects: 509, done. remote: Counting objects: 100% (200/200), done. remote: Compressing objects: 100% (142/142), done. remote: Total 509 (delta 117), reused 131 (delta 56), pack-reused 309Receiving objects: 80% (408/5..

[NC7기-21일차(5월23일)] - 웹프로그래밍 2일차

parameter, argument 컴파일 방식 인터프리터 방식 JAVA의 하이브리드 방식 JAVA 개발 도구 SHELL device driver - os 별 표준 규격이 정해져있다. local 간 통신은 웹어플리케이션이 담당. 웹어플리케이션에서 요청한 데이터 가공 및 저장은 ioc컨테이너(스프링부트)가 마지막에 다 처리함. embadded - 기기에 심어진 프로그램 칩으로 작동 #-루트 실행 ($sudoo npm install : 관리자 권한으로 실행) $ 일반사용자 실행 parameter = 매개변수 = 함수에서 전달된 값을 받는 변수 argument = 전달된 값 = 함수가 실행될 때 매개변수에 실제로 담기는 값 컴파일 방식 *gcc ( 컴파일, 프리컴파일,링킹 모두 한꺼번에 처리함) *중간 com..

[NC7기-20일차(5월22일)] - 웹프로그래밍 1일차

software = program(계획) 컴퓨터가 할 진행,계획 + 순서 짠 것: program 짜는 과정: programing software system software : 하드웨어를 제어 - os(운영체제), device driver(그래픽카드, 프린터드라이버, 스캐너드라이버, 마우스,키보드 웹캠 , embadded sw(냉장고, 전자렌지) application software (응용 소프트웨어): user 용 - 포토샵, ms워드, 알집, 게임, 네이버 카페, 유튜브 Application S/W Standalone: 설치형 - local(pc) ex) 포토샵, ms word, 알집 Client/ Server : 설치형 + 원격접속 ex) 게임, 메일클라이어트, putty, web server(웹메..

머신러닝 2 /GridSearch, outlier, Bagging, Voting

하이퍼파라미터튜닝 -그리드서치 -아웃라이어 배깅(Bagging) 보팅(voting) 그리드서치(GridSearchCV) 하이퍼파라미터 튜닝: 임의의 값들을 넣어 더 나은 결과를 찾는 방식 ->수정 및 재시도하는 단순 작업의 반복 그리드 서치: 수백가지 하이퍼파라미터값을 한 번에 적용가능 그리드서치의 원리: 입력할 하이퍼파라미터 후보들을 입력한 후, 각 조합에 대해 모두 모델링해보고 최적의 결과가 나오는 하이퍼파라미터 조합을 확인 param = [ {'n_estimators' : [100, 200], 'max_depth':[6, 8, 10, 12], 'n_jobs' : [-1, 2, 4]}, {'max_depth' : [6, 8, 10, 12], 'min_samples_split' : [2, 3, 5, 1..

[수업자료] ml2 오늘의 코드 -gridsearch, random, bagging

그리드 서치하는 이유: 최적의 파라미터 찾으려고. 찾고나면 그리드 서치 지워버리고 파라미터만 적용하기 ml13_gridSearchCV_iris RandomForestClassifier() param = [ {'n_estimators': [100,200], 'max_depth' : [6,8,10], 'n_jobs':[-1,1,2]}, {'n_estimators': [100,500], 'min_samples_leaf':[3,5,7]} ] #2. 모델 rf_model = RandomForestClassifier() from sklearn.model_selection import GridSearchCV model = GridSearchCV(rf_model, param, cv=kfold, verbose=1) 선생..

[수업자료] ml1 오늘의 코드3

ml11_xgb_iris xgboost import numpy as np from sklearn.svm import SVC, LinearSVC from sklearn.tree import DecisionTreeClassifier from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import accuracy_score from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split, KFold from sklearn.model_selection import cross_val_score, cross_val_predict from ..

머신러닝 1 / feature importance

Iris #1.datasets = load_iris() #StratifiedGroupKFold #sclaer 적용 scaler = MinMaxScaler() #2. 모델 model = RandomForestClassifier() #3. 훈련 model.fit(x,y) #4. 평가 예측 #시각화 import matplotlib.pyplot as plt n_features = datasets.data.shape[1] plt.barh(range(n_features), model.feature_importances_) plt.yticks(np.arange(n_features), datasets.feature_names) plt.title("Iris feature importances") plt.ylabel('F..

머신러닝 1 -model, scaling

퍼셉트론의 과제 : XOR (퍼셉트론으로 AND, OR 해결 가능. 하지만 ,, XOR은 못 함. 인공지능의 winter, ,,, ) AND : 0이 하나라도 있으면 0 OR: 1이 하나라도 있으면 1 XOR #1. 데이터 xor: 다르면 1 x_data = [[0,0],[0,1],[1,0],[1,1]] y_data = [0,1,1,0] #2. 모델 model = Perceptron() 모델의 score : 0.5 # [[0, 0], [0, 1], [1, 0], [1, 1]] 의 예측결과 : [0 0 0 0] # acc : 0.5 MODEL SVM 모델 (suport vecter machine) 서포트 벡터 머신은 여백(margin)을 최대화하는 지도 학습 알고리즘 여백은 주어진 데이터가 오류를 발생키지..

heatmap NaN, label Encoding - 팀플 쓰기

보스턴 이어서 시커먼 값지워주자 [4-3] 판다스... 찍 (tistory.com) 여기 이어서 [4-3] 판다스... 찍 판다스로 파일 끌고옴 금지된 보스턴 import numpy as np import pandas as pd#pandas 파일 가져오는 거 from keras.models import Sequential from keras.layers import Dense from sklearn.model_selection import train_test_split from sklearn.met timi-d.tistory.com boston_NaN 채우기, 확인하기 tf01_pd02_boston_labeling