728x90
AI 시대에 이미 알고 있었던 내용 말고 흥미로운 사실이 있어서 적어보려고 한다.
AI 프롬프트를 제작할때
1. Few-shot Prompting (예시 제공)
- 원하는 결과물의 '좋은 예시'와 '나쁜 예시'를 함께 줘서 AI가 모방하도록 하라.
2. Chain of Thought (생각의 사슬)
- "답변하기 전에 단계별로 생각 과정을 설명해줘"라고 지시하여 AI가 소리 내어 사고하도록 하라. (단순히 답만 내는 것보다 추론 능력이 향상됨)
- 기본적으로 요즘 AI는 사고 과정을 보여줘서 Chain of Thought를 쓴다고 생각했는데, Deep Research 같은 연구 말고는 명시하지 않는 이상 잘 이용하지 않는다고 한다.
- 쓴다 해도 명시적인 CoT보다는 Hidden CoT 여서 사용자에게 보이지 않는다.
- 영상에서는 명시적으로 보이게 해서 사용자가 어디가 잘못되었는지 코칭 하는 방향을 제시한다.
- 이거는 결국 LLM이 이전 단어들을 갖고 다음 단어를 예측하는 기계여서 전체 과정을 사고하게 하면 성능이 좋아지는 원리였다.
이 2가지는 알고 있었다.
3. Reverse Prompting (역방향 프롬프팅)
- "작업을 시작하기 전에, 더 필요한 정보가 있다면 나에게 질문해줘"라고 지시하라.
- AI가 멋대로 정보를 지어내지(Hallucination) 않고, 완벽한 결과를 위해 필요한 데이터를 사용자에게 되묻게 만드는 핵심 기술입니다. (영상에서는 이를 'Table Stakes', 즉 기본 요건이라고 표현합니다.)
4. 페르소나 부여
- 예: "너는 냉전 시대 러시아 올림픽 심판이야. 아주 엄격하게 점수를 깎아줘"라고 구체적인 태도와 역할을 지정하라.
이 2가지 새로웠는데, 어떤 일을 새롭게 시작하는 사람에게 알려주듯 AI에게 알려주면 더 일을 잘한다는 전체적인 내용있었다.
새로운 일을 시작하는 사람에게
1. 일에 대한 소개
2. 일에 대한 좋고 나쁜 예시
3. "언제든 질문을 해 달라"
이런식으로 소개하지 않는가. 그거를 그대로 AI에게도 적용하면 되는 것이었다.
AI는 사람이 칭찬받는 걸 좋아하는 걸 안다.
따라서 페르소나 부여에서 오히려 가혹한 페르소나를 부여하면 칭찬만 하던 AI가 돌변했다..ㅋㅋㅋ
요즘 인지의 외주화(Cognitive offloading) 에 대해서도 걱정했었는데
영상에서는 AI가 결국 사용자의 거울이라며, 내가 일을 대신해 주길 바라면 그거를 도와줄거고
만약 내가 비판적이고 날카로운 사고를 하고 싶으면 그거를 도와줄거라고 했다.
따라서 사용하기 나름이라는 것이다. 그리고 사용하고 싶은 방향을 AI에게 충분히 설명하는 것이 중요했다.
728x90