SK Networks Family AI bootcamp 강의노트 49

15일차 [ 데이터 시각화 심화 ]

https://colab.research.google.com/drive/1d50SyNgswBnMuieAEhA3Rdtw62gYpId0#scrollTo=5U1b6fqYnNCf Google Colab NotebookRun, share, and edit Python notebookscolab.research.google.com배웠던 것중에 인상 깊은 것 몇 가지만 써놓겠다. 1. 증가률 feature 새로 추가 (pct_change)df_by_airlines = df_comp_sum.groupby("항공사별(1)")# 연간 운항 편수 증가율 계산df_comp_sum.loc[:,"운항 (편)_증가율"] = df_by_airlines["운항 (편)"].pct_change() * 100# 연간 여객 수 증가율 계산d..

14일차 [ 데이터 시각화 ]

통계 분석 => 데이터 시각화 import seaborn as snsimport pandas as pdimport matplotlib.pyplot as pltdf_anscombe = sns.load_dataset("anscombe")groups=df_anscombe.groupby('dataset')df_1=groups.get_group('I')df_2=groups.get_group('II')df_3=groups.get_group('III')df_4=groups.get_group('IV')# 통계 분석# 각 dataset별 x,y에 대한 평균, 표준편차,분산 df_anscombe.groupby('dataset').agg(['mean','std','var'])x ymean std var mean std va..

14일차 [ pandas 심화 ]

책을 5번 읽는다고 하면, 1번째는 3개월, 2번째는 1개월, 3번째는 일주일, 4번째는 하루 걸렸다. 반복횟수가 늘어갈 수록 더 깊게 이해가 된다. 처음부터 두꺼운책보단 얇은 책을 여러번 읽으면서 공부하자. 블로그도 이런식으로 활용하면 좋을 것 같다. 금요일에는 캐글 경진대회 진행 예정자격증이 있다고 실력이 있다는 것은 아니다. 실제 실력을 올려라. 노가다처럼 막무가내로 공부하지 말고, 프로젝트를 하면서 자기만의 서비스를 만들면서 실력을 올려라.현타오거나 그러면 혼자 해결하려고 하지 말고 주변에 SOS 치면 된다. https://colab.research.google.com/drive/1-ssBL1MApwlnxDo9A46GF_A78479Tt6m#scrollTo=QF3TxOcWUDer Google Col..

13일차 [ 데이터분석: Pandas ]

가성비 최고로 검증된 딥시크의 충격.... 공부 좀 해야겠다.  독립변수,종속변수 (cause and effect)상관관계 (증감,우상향,우하향 등)상관관계 인과관계상관관계에서 인과관계가 되는지 가설을 세우고, 참이 되면 인과관계가 성립이 된다.p값Colabhttps://drive.google.com/drive/folders/1sVzLoGwO_NmRg1uFu9yTwZqfh7ggDpNt Google Drive: 로그인이메일 또는 휴대전화accounts.google.com런타임 유형 변경 > cpu, gpu 중 선택 가능ctrl+s 로 필히 저장세션관리 > 종료 눌러야 비용청구가 안된다.현재 오픈한 코랩 페이지에서는 '런타임 연결 해제 및 삭제' 눌러서 관리PandasVector,1차원 데이터,Seriesc..

[플레이데이터 SK네트웍스 Family AI캠프 10기] 3주차 회고

배운 내용github (clone, branch, merge)DML 심화streamlit 과 mysql 연동streamlit 구현web crawling첫 단위 프로젝트: 전국 자동차 등록 현황 및 기업 FAQ 조회 시스템토이 프로젝트 1. githubgithub에 new repo 생성시 readme.md 포함, 멤버 초대git clone (local folder > github repo url copy > git clone [url]branch : main feature별로 개발, develop에서 merge 및 확인 , 최종 main에서 반영feature별 개발시 develop을 git pull, push 하면서 하기create feature branch(local) > publish branch (l..

12일차 [ Web Crawling2 ]

웹크롤링 - 글 아이디 넣어서 스트림릿에서 크롤링 해보기vscode:  F2는 함수명 한번에 변경# crawling.pyimport requestsfrom bs4 import BeautifulSoup as bsdef do_crawling_of_nate(comment_id:str): # url = "https://pann.nate.com/talk/350939697" url = f"https://pann.nate.com/talk/{comment_id}" header = { "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) \ AppleWebKit/537.36 (KHTML, like Gecko) \ ..

토이 프로젝트 일정 (자동 코인 매매 봇)

1. 1차 애자일1-1. 발표1차 애자일 2/3일날 중간 발표총 2시간, 팀단위로 20분: 발표15분까지, 질문 5분발표내용화면 설계서테이블 설계서 (ERD)원천 데이터까지 확인1-2. 개발일정1차 애자일 2/14일 최종 발표개발완료는 2/10일까지테스트는 2/11~132. 2,3차 애자일 일정2차 애자일 (2/17~3/20) (모델 적용, AWS 적용)3차 애자일 (3/21~4/22) (사용자 피드백 적용, LLM적용)매번 애자일마다 설계를 다시할 예정임.

11일차 [ Web crawling ]

header (Referer, User-Agent)user-agent: 어떤 사람이 어떤 디바이스로 접속했는지 접속 정보refer: 현재 표시하는 웹페이지가 어떤 웹페이지에서 요청하는지에 대한 정보. 일반 사용자인지, 해커 혹은 개발자인 지 알 수있다.크롤링 & streamlit# common/crawling.pyimport requestsdef do_crawling(): url = "https://n.news.naver.com/mnews/hotissue/article/011/0004440387?type=series&cid=2002544" # header가 없으면 높은 확률로 접속이 거부됨. header = { # 어떤 사람이 어떤 디바이스 (pc or mobile, etc..

11일차 [ streamlit ]

코드몽키가 안되기 위해서 내가 이걸 왜 배우는 지 생각해봐라 깃헙은 반드시 숙달하라설계를 하는 엔지니어를 되어라동기를 소중히 여겨서 같이 올라가라몽롱하다. 잠을 안자면 아뚱멍단 (아프고 뚱뚱해지고 멍해지고 단명한다)해진다는데, 진짜 일찍 좀 자야겠다. 내 나이가 몇인데 아직도 늦게자는걸 버릇한다. 최소 12시엔 자야겠다. 정말 너무 힘들다. ㅠㅠ 그리고 아침 간단하게 먹을 시간이 필요한데, 아침에 겨우 일어나서 힘이 없으니 아침도 못먹어서 배고파서 힘들다. 7시반 기상-밥-8시 10분 출발 - 8시 30~40분 도착- 블로그 켜서 오늘 하루 시작 노트 작성으로 루틴 잡아야겠다. 오늘 내일 스트림릿을 어느정도 배워둬서  해야하는데, 오늘 내일 챗봇 프로젝트 모임 때문에 공부를 생각보단 못할 것 같다 ㅠㅠ ..