
최근 우리 식탁에 오르는 고기들이 스마트해지고 있다. 과거에는 단순히 좋은 사료를 많이 먹여 키우는 것이 최선의 방식이었다면, 이제는 가축 한 마리 한 마리의 상태를 인공지능(AI)이 분석하고 그에 맞는 영양을 설계하는 ‘정밀영양(Precision Nutrition)’ 시대다. 우리가 무심히 먹는 한 점의 고기 뒤에는 인공지능이 계산한 정밀한 영양 배합이 숨어 있다. … 닭이 수만 마리 모여 있는 계사에서는 인공지능(AI) 카메라와 소리 분석 기술이 움직임과 울음 패턴을 읽어낸다. 이상 징후가 감지되면 해당 구역의 영양 배합을 조정해 질병 위험을 낮춘다. 이는 항생제 사용을 줄이고 동물복지를 실현하는 기술로 주목받고 있다.…우리나라도 스마트 축산 확산 정책을 통해 사료 급여와 환경 데이터를 수집·분석하는 기반을 확대하고 있다. 정밀영양은 단순히 사료를 정교하게 주는 기술을 넘어, 탄소 배출을 줄이면서도 생산성을 높이는 축산 구조로 전환하는 핵심 수단이 되고 있다.…오늘 우리가 먹는 한우 등심과 삼겹살 한 점 뒤에는 수많은 생체 데이터와 알고리즘이 설계한 영양 전략이 자리하고 있다. 정밀함은 선택이 아니라, 지속 가능한 축산으로 나아가기 위한 새로운 기준이다.. <출처: 전라일보>
수강자의 TIP
학습정보가이드 서포터즈의 활동보고서와 댓글을 참고하여 작성되었습니다.
2025-2 [분반:059]
■ 대 면 □ 발표수업 □ 현장체험 ■ 중간고사 ■ 과제있음 □ 기타
□ 비대면 □ 조별수업 □ 시험없음 ■ 기말고사 □ 과제없음
<강의 운영 정보>
정보의생명공학대학 정보컴퓨터공학부 인공지능전공 2학년 2학기 전공필수
본 강의는 대면으로 진행되며, 2학년 1학기 전공필수과목 ‘인공지능 수학’의 연장선 내용이다. 전체적으로 AI의 학습 방법에 대한 기초적인 내용을 다룬다.
강의 내용이 전체적으로 연결되어 있기 때문에 이전 내용을 짧게라도 복습하여 다음 수업을 준비하는게 좋다.
강의는 교수님께서 피피티를 보고 개념을 설명하는 방식으로 진행되며 피피티자료나 칠판에 필기를 하시면서 설명하신다. 중요한 부분은 학생들에게 질문을 던지시기도 한다.
평가방법: 중간고사(35%), 기말고사(35%), 과제(20%), 기타(수업태도 등)(10%)
<강의정보>
중간고사는 지도학습과 비지도학습에 대해 다룬다.
(1주차)
– AI의 역사/발전과정, AI의 현재와 미래의 모습 (시험에 안나옴)
(2주차)
– 인공지능 모델을 구현하기 위한 3가지 요소(Hypothesis, Loss function, Optimization)에 대한 개념 설명
– 선형 회귀의 정의와 예시, 최적화 알고리즘(gradient)와 목적함수
– 이진 분류기의 정의와 예시, zero-one loss, magin과 score, hinge Loss, logistic Loss(cross-entropy), sigmoid function
(3주차)
– 경사 하강법의 세 종류의 장단점(일반, stochastic, mini-Batch)
– feature extractor의정의, 비선형 분류기, Feature Templates, decision boundary
(4주차)
– 신경망의 정의와 예시, XOR 문제
(5주차)
– Computation Graphs : gradient 계산 tree
– 모델의 일반화에 대한 개념, 과적합과 과소적합, Approximation/Estimation error
– 일반화 전략 : Dimensionality, Norm, L1 정규화, L2 정규화
(6주차)
– 하이퍼 파라미터의 개념과 종류(step size, 학습률)
– 데이터셋의 종류(validation, train, test), 모델의 훈련 과정
– 비지도 학습, 클러스터링, K-means의 학습 과정(Alternating minimization)과 장단점 및 한계
기말고사에는 신경망(베이지안 네트와크와 신경망)에 대해 중점적으로 다룬다.
(8주차)
– Search 알고리즘 정의/개념
– 백트래킹, 동적계획법
(9주차)
– UCS 알고리즘
– MDP 알고리즘 정의/개념
(10주차)
– policy evaluate
– value iteration
– MDP 학습
(11주차)
– MDP의 네 가지 알고리즘 소개
– model-based/model-free method
– SARSA/Q-learning
(12주차)
– CSP 알고리즘 정의/개념
(13주차)
– 마르코프 네트워크 정의/개념
– 깁스 샘플링
(14주차)
– 베이지안 네트워크 정의/개념
– HMMs
– EM 알고리즘
<과제 정보>
- 과제는 총 5개이며, 한 과제 당 1~2주 정도의 시간이 주어진다.
- 스탠포드대학의 CS221과목(인공지능:원리와 기술)의 과제를 그대로 가져와서 일부 문제를 제외하고 과제가 제시된다. 수학 문제와 코딩(파이썬)문제 50:50비율로 구성된다.
- 수학문제는 LaTex에서 작성하여 pdf파일로 제출, 코딩문제는 교수님께서 올려주신 submission.py에 코드를 채워 이를 로컬에 테스트하고 hidden part를 제외한 부분의 점수를 확인하여 제출한다.
- 문제는 CS221을 구글링하면 그대로 나오고, 솔루션은 따로 없지만 깃허브에서 다른 사람들이 올려둔 풀이를 참고하면 된다. 또는 AI의 도움을 받아 코딩 문제를 해결할 수 있다.
- 과제는 시험에 전혀 나오지 않기 때문에 제출기한만 잘 지켜서 제출하면 된다.
<시험 정보>
- 시험은 PPT내용과 함께 수업에서 학습한 것에서 살짝 벗어나는 내용도 나온다.(절반 이상은 PPT내용, 일부는 그 내용을 바탕으로 추론하거나 기말 혹은 선행 내용이다.)
- [중간고사]
총 9문제로 객관식과 주관식이 섞여 출제된다. 계산(2문제) 주관식(7문제)
(중요) 손계산 연습 / loss함수 비교 암기 등 - [기말고사]
총9문제로 챕터별로 배운 알고리즘 하나 당 한문제씩 출제된다. 알고리즘의 작동 과정에 대한 테이블의 빈칸을 채워넣는 류의 문제와 단답으로 계산결과를 적는 문제가 나온다. 따라서 중간 계산과정이 틀리면 점수를 못받기 때문에 정확한 방법으로 풀어 답을 작성해야 한다.
1~4번 문제가 해당 링크의 Problem 문제 그대로 나왔기 때문에 참고하면 도움된다. Solution도 제공되어 있어서 시험 전에 연습하는 걸 추천한다. (https://stanford-cs221.github.io/autumn2024/)
(중요) ‘테이블 채우기 문제’반복, HMM/Q-learning 직접 계산 연습 등
- 중간고사 문제 예시
- 1-0 Loss와 1-sigmoid Loss가 그래프로 주어진다. 우리가 1-0Loss 대신 1-sigmoid 함수를 Loss로 쓴다고 할때 이의 장단점
- 이진 분류에 대하여 Logistic Loss(cross-entropy)은 Loss_logistic(x, y, w) = -y*log(f(x)) – (1-y)log(1-f(x))이다. 만약 우리가 다중 분류 즉, y_i는 n차원 벡터이고 label이 j일 때 y_ij는 1이라면, Logistic Loss를 어떻게 디자인해야하는가?
- 과적합에 대하여 L1 정규화와 L2 정규화가 있다. L2 정규화가 L1 정규화보다 좋은 이유
- Batch Size 영향(bias-variance tradeoff + optimization stability)
- Loss의 위치 : 신경망 마지막 layer와 loss의 대응 관계
- Dataset 역할(data leakage 방지)
- K-means 계산하기(거리 계산, centroid 업데이트, alternating minimization 이해)
중간고사 핵심
-
Gradient Descent 계산
-
Loss 함수 이해
-
Regularization
-
Overfitting
-
K-means
👉 “기초 ML + 계산” 중심
기말고사예시
- https://stanford-cs221.github.io/autumn2024/의 Week4 Problem 1.(a)번 문제.
- https://stanford-cs221.github.io/autumn2024/의 Week4 Problem 1.(b)번 문제.
- https://stanford-cs221.github.io/autumn2024/의 Week7 Problem 1번 문제
- Gibbs Sampling(conditional probability 계산, 순차 업데이트)
- HMM – Forward/Backward(인터넷에 검색하면 바로 나오는 유명한 HMMs예시. 시험전에 반드시 상황을 만들고 연습해가길 추천함)(recursion 계산, 테이블 채우기, 확률 테이블 채우기, 수식구조 이해)
기말고사 핵심
-
MDP / RL (Q-learning)
-
Probabilistic Graphical Model
-
HMM / EM
👉 “확률 모델 + 순차 의사결정” 중심
강의 참고 도서
추천도서
추천 저널
추천 논문
더 찾아보기추천 기사
추천 사이트
추천영상
본 가이드는 부산대학교 인공지능개론 강의 및 학습을 지원하기 위해 작성되었습니다.







