전체 글

·딥러닝
모든 정보와 슬라이드는 "MIT 6.S191 (2023): Convolutional Neural Networks"을 참고했다.MIT 6.S191 (2023): Convolutional Neural Networks"To know what is where by looking"What Computers "See"📌 Images are NumbersTasks in Computer Vision : Computer Vision 이 하고자 하는 일Regression : output variable이 continous value Classification : output variable 이 class label. 특정 class에 속할 확률을 알아냄 High Level Feature Detection: 각 image..
·딥러닝
모든 정보와 슬라이드는 "MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention"을 참고했다.MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention RNN의 limitation을 복습하면Encoding bottleneck(모든 정보가 maintain 되었는지 보장하기 어려움)Slow, no parallelizationNot long memory (엄청 큰 sequnce data는 다루지 못함...였다. 이것을 해결하기 위해 생각해 볼 수 있는 방법들이 있는데,Feature vector를 하나로 만들어서 한꺼번에 처리하는 방법을 생각해 볼 수 있지만 순서..
·TIL
오늘은 시험 공부하느라 문제는 풀려고 시도했다가 한시간 안에 못풀어서 포기했다...대신~~~강의 보면서 블로그에 정리해봤다.딥러닝 강의 들으면서 이렇게 명쾌했던 적이 있던가....!너무 재밌었다2024.06.06 - [딥러닝] - MIT 6.S191 (2023): Deep Generative Modeling (~41:25 VAE) MIT 6.S191 (2023): Deep Generative Modeling (~41:25 VAE)딥러닝 수업 기말을 위해 공부를 해야해서해당 영상을 참고해 공부해 봤다. 근데 정말 잘 가르친다... 강추..모든 정보와 슬라이드는 "MIT 6.S191 (2023): Deep Generative Modeling"을 참고했다.MIT 6.S191 (2023):daily-progra..
·딥러닝
모든 정보와 슬라이드는 "MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention"을 참고했다.MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and AttentionSequence Modeling 앞으로 나오는 ML을 잘 이해하기 위해 해당 그림을 잘 아는 것이 중요할 것 같다. 단순히 1대1 input output이 아니라 이제부터는 sequence to 1, 1 to sequence, sequence to sequence 형식이 나올 것이다. 그렇다면 single ➡️ single 에서 sequence ➡️ sequence 를 하는 방법은 single을 복사해서 여러..
·딥러닝
모든 정보와 슬라이드는 "MIT 6.S191 (2023): Deep Generative Modeling"을 참고했다.MIT 6.S191 (2023): Deep Generative ModelingGANs (Generative Adversarial Networks)only care the quailty of the sample? What if we just want to sample?▶️Generator Network를 train해서 noise에서 training data distribution으로 transform하게 하는 것 두개의 Neural Network를 통해 서로 경쟁하며 더 좋은 model을 만들도록 하는 것➡️하나는 진짜 같은 가짜를 만들고, 하나는 진짜를 판별하고 $$arg\,\underse..
·딥러닝
딥러닝 수업 기말을 위해 공부를 해야해서해당 영상을 참고해 공부해 봤다. 근데 정말 잘 가르친다... 강추..모든 정보와 슬라이드는 "MIT 6.S191 (2023): Deep Generative Modeling"을 참고했다.MIT 6.S191 (2023): Deep Generative Modeling Supervised LearningUnsupervised LearningData(x, y) x : data, y : labelx : data , no labelGoalLearn function to map x→yLearn the hidden or underlying structure of the dataExamplesClassification, regressionclustering, feature redu..
·코딩테스트
🔗 프로그래머스 -구명보트 어제에 이어 Greedy 문제였는데 잘 못하는 것임이 확실하다! Greedy하게 결정하는 방법을 잘 모르겠다. 하지만 해봐야지!사실 오늘은 조금 cheating을 했다.😏 구명 보트를 가장 적게 사용하면서 승객을 옮겨야 하는데 생각한 알고리즘이제일 무거운 사람을 뽑아서 그 사람이랑 가장 많이 태워서 보내는 것이었는데 너무 복잡하게 생각했다.그저 무거운 사람이랑 같이 갈 수 있는 제일 가벼운 사람이 있으면 보내고 아니면 그냥 무거운 사람만 보내는 방법이었다. 이렇게 간단하게 생각하는 방법을 좀 연습해야겠다....from collections import dequedef solution(people, limit): answer = 0 people.sort() p..
·TIL
오늘은 내일 발표를 준비하느라 코테를 준비하지 못했다...하지만 논문은 읽었지.. Fuzzing에 대해서 공부중인데 오늘은 아래 논문을 읽었다. 3까지.. fuzzing을 LLM을 이용해 하는 방법이다. tencent 연구원들이 썼다. 굉장히 최근에 나왔다.이 논문을 읽으면서 또 읽어야 하거나 봐야하는 논문과 링크를 정리해 봤다. Prompt Fuzzing for Fuzz Driver Generationhttps://arxiv.org/abs/2312.17677 Prompt Fuzzing for Fuzz Driver GenerationCrafting high-quality fuzz drivers not only is time-consuming but also requires a deep understand..
yolang
프로그래밍 기록장