LostCatBox

LLM 및 Cursor 학습

Word count: 581Reading time: 3 min
2025/07/04 Share

참고

추가 학습 경로

LLM 주요 개념 및 용어정리

  • 신경망에서는 hidden layers가 존재, 입력 넣으면 여러 층을 통과하여, 출력층에서 정답일 확률(activation) 제공
  • 신경망 학습 목적 : bias와 weight 찾아내는 것

LLM 용어 정리

  • bias : 편향
    • 하나의 뉴런으로 입력된 모든 값을 다 더한 다음에(가중합이라고 합니다) 이 값에 더 해주는 상수입니다.
    • 상수로 인해 임계점을 쉽게 넘을지 말지가 결정됨
  • weight: 가중치
    • 데이터를 각기 다른 비중으로 다음 은닉층(hidden layers)으로 전달시키기 위해 웨이트(weight), 중요도를 다르게 한다고 이해하시면 됩니다.
  • 가중합 : 이전 층에서 뉴런의 값(activation)들에 각각의 가중치를 합한 값
  • Activation Function: 활성화 함수
    • 임계점을 설정하고 출력값에 변화를 주는 함수를 이용
    • 시그모이드(01), 렐루(0n) 등등

Cursor

  • agent, ask 모드 존재

working with context

  • cursor가 활용하는 모델들도 LLM 모델이기에 결국 input tokens를 통해 문맥을 파악하고 다음단어를 예측하는것임.
  • 문맥(context)는 두가지 타입이다
    • 의도 문맥 (intent context)
      • 유저가 원하는 것에 대한 문맥
      • “Turn that button from blue to green” is an example of stated intent
      • 규정적인 것
    • 상태 문맥 (state context)
      • 현재의 상태에 대한 설명
      • log, images, chunks of code
      • 설명적인 것
  • 이 두개의 타입의 문맥이 동시에 Model에서 사용되어 Cursor가 결과물이 나옴
  • 팁) Cursor 명령 시 반드시 충분한 문맥을 제공해야한다.
    • Strong thinking model(Claude-3.7-sonnet)등은 필요한 정보를 더 찾아서 자동으로 문맥에 추가하기도함
    • code, file, folder, Mcp , rules, Self-gathering context(명령시 run code, debugging 가능) 등 문맥 제공가능

Selecting Models

If you prefer to… Models
Be in control, give clear instructions claude-4-sonnet, gpt-4.1
Let the model take initiative claude-4-opus, gemini-2.5-pro, o3

Architectural Diagrams

  • working with mermaid ->Use diagrams to understand flow, logic, and data
    • flowchart for logic and sequences
    • sequenceDiagram for interactions
    • classDiagram for object structure
    • stateDiagram
  • Start with small prompts and grow your diagram from there
  • Mermaid is the easiest format to work with in Cursor

Working with Documentation

  • Documentation provides current, accurate context. Without it, models use outdated or incomplete training data. Documentation helps models understand things like:

    • Current APIs and parameters
    • Best practices
    • Organization conventions
    • Domain terminology
  • LLM은 학습 시점 이전데이터만 갖고있으므로 최신 데이터가 없는 knowledge cutoff 현상이 존재한다.
    documentation들은 이를 보안할 수. 있다.

  • Mental model

    Tool Mental Model
    @Docs Like browsing and reading official documentation
    @Web Like searching for solutions on the internet
    MCP Like accessing your internal documentation

Large Codebases

  • 하위 방식을 따르면 큰 코드 베이스도 개발 가능하다.
1
2
3
4
5
6
7
8
9
10
flowchart LR
A[codebase understanding] --> B[Define outcome / Diff]
B --> C[Plan changes]
C --> D[Implement changes]
D --> A

style A width:200px
style B width:200px
style C width:200px
style D width:200px
  • Write rules for domain-specific knowledge

    • rules를 추가하여, 도메인 지식 문맥, 작성 패턴 등을 전달
  • Stay close to the plan-creation process (추가 질문하기 -> 계획 -> 수행)

    • create a plan for how we shoud create a new feature (just like @existingfeature.ts)
    • ask me questions (max 3) if anything is unclear
    • make sure to search the codebase
  • Pick the right tool for the job

    Tool Use case Strength Limitation
    Tab Quick, manual changes Full control, fast Single-file
    Inline Edit Scoped changes in one file Focused edits Single-file
    Chat Larger, multi-file changes Auto-gathers context, deep edits Slower, context-heavy
CATALOG
  1. 1. 참고
  2. 2. 추가 학습 경로
  3. 3. LLM 주요 개념 및 용어정리
  4. 4. LLM 용어 정리
  5. 5. Cursor
    1. 5.1. working with context
    2. 5.2. Selecting Models
    3. 5.3. Architectural Diagrams
    4. 5.4. Working with Documentation
    5. 5.5. Mental model
    6. 5.6. Large Codebases