전체 글

·코딩테스트
🔗 1641. Count Sorted Vowel Strings 엄... 처음에 최대한 빨리 끝내고 싶어서 itertools의 product를 사용한 다음에 조건에 안맞는 것들을 없애려고 했는데product가 n이 33만 되어도 굉~장히 느렸다. 그래서 시간초과.. 두번째로 생각한 방법은뒤에서 부터 하나씩 정해서 그 다음 앞에 것은 뒤에것보다 작은(vowel 배열에서 앞에 위치한) 글자여야 한다는 것이다.사실 vowel도 귀찮아서 걍 [0, 1, 2, 3, 4] 로 했다.그랬더니 통과했다. 속도는 느려도 메모리는 경쟁력 있었다. 아마 속도는 memorization을 써야하지 않나.. 싶다.class Solution: def __init__(self): self.answer = None ..
·딥러닝
모든 정보와 슬라이드는 "MIT 6.S191 (2023): Convolutional Neural Networks"을 참고했다.MIT 6.S191 (2023): Convolutional Neural Networks"To know what is where by looking"What Computers "See"📌 Images are NumbersTasks in Computer Vision : Computer Vision 이 하고자 하는 일Regression : output variable이 continous value Classification : output variable 이 class label. 특정 class에 속할 확률을 알아냄 High Level Feature Detection: 각 image..
·딥러닝
모든 정보와 슬라이드는 "MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention"을 참고했다.MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention RNN의 limitation을 복습하면Encoding bottleneck(모든 정보가 maintain 되었는지 보장하기 어려움)Slow, no parallelizationNot long memory (엄청 큰 sequnce data는 다루지 못함...였다. 이것을 해결하기 위해 생각해 볼 수 있는 방법들이 있는데,Feature vector를 하나로 만들어서 한꺼번에 처리하는 방법을 생각해 볼 수 있지만 순서..
·TIL
오늘은 시험 공부하느라 문제는 풀려고 시도했다가 한시간 안에 못풀어서 포기했다...대신~~~강의 보면서 블로그에 정리해봤다.딥러닝 강의 들으면서 이렇게 명쾌했던 적이 있던가....!너무 재밌었다2024.06.06 - [딥러닝] - MIT 6.S191 (2023): Deep Generative Modeling (~41:25 VAE) MIT 6.S191 (2023): Deep Generative Modeling (~41:25 VAE)딥러닝 수업 기말을 위해 공부를 해야해서해당 영상을 참고해 공부해 봤다. 근데 정말 잘 가르친다... 강추..모든 정보와 슬라이드는 "MIT 6.S191 (2023): Deep Generative Modeling"을 참고했다.MIT 6.S191 (2023):daily-progra..
·딥러닝
모든 정보와 슬라이드는 "MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention"을 참고했다.MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and AttentionSequence Modeling 앞으로 나오는 ML을 잘 이해하기 위해 해당 그림을 잘 아는 것이 중요할 것 같다. 단순히 1대1 input output이 아니라 이제부터는 sequence to 1, 1 to sequence, sequence to sequence 형식이 나올 것이다. 그렇다면 single ➡️ single 에서 sequence ➡️ sequence 를 하는 방법은 single을 복사해서 여러..
·딥러닝
모든 정보와 슬라이드는 "MIT 6.S191 (2023): Deep Generative Modeling"을 참고했다.MIT 6.S191 (2023): Deep Generative ModelingGANs (Generative Adversarial Networks)only care the quailty of the sample? What if we just want to sample?▶️Generator Network를 train해서 noise에서 training data distribution으로 transform하게 하는 것 두개의 Neural Network를 통해 서로 경쟁하며 더 좋은 model을 만들도록 하는 것➡️하나는 진짜 같은 가짜를 만들고, 하나는 진짜를 판별하고 $$arg\,\underse..
·딥러닝
딥러닝 수업 기말을 위해 공부를 해야해서해당 영상을 참고해 공부해 봤다. 근데 정말 잘 가르친다... 강추..모든 정보와 슬라이드는 "MIT 6.S191 (2023): Deep Generative Modeling"을 참고했다.MIT 6.S191 (2023): Deep Generative Modeling Supervised LearningUnsupervised LearningData(x, y) x : data, y : labelx : data , no labelGoalLearn function to map x→yLearn the hidden or underlying structure of the dataExamplesClassification, regressionclustering, feature redu..
·코딩테스트
🔗 프로그래머스 -구명보트 어제에 이어 Greedy 문제였는데 잘 못하는 것임이 확실하다! Greedy하게 결정하는 방법을 잘 모르겠다. 하지만 해봐야지!사실 오늘은 조금 cheating을 했다.😏 구명 보트를 가장 적게 사용하면서 승객을 옮겨야 하는데 생각한 알고리즘이제일 무거운 사람을 뽑아서 그 사람이랑 가장 많이 태워서 보내는 것이었는데 너무 복잡하게 생각했다.그저 무거운 사람이랑 같이 갈 수 있는 제일 가벼운 사람이 있으면 보내고 아니면 그냥 무거운 사람만 보내는 방법이었다. 이렇게 간단하게 생각하는 방법을 좀 연습해야겠다....from collections import dequedef solution(people, limit): answer = 0 people.sort() p..
yolang
프로그래밍 기록장