AI/LLM

LLM도 '브레인 롯(Brain Rot)'에 걸릴 수 있을까?

Tech코알라 2025. 10. 20. 19:31

브레인 롯 밈 '퉁퉁퉁 사후르'

얼마 전 세상을 떠들썩 하게 하던 밈이 있었습니다. 바로 '브레인 롯' 밈인데요 직역하자면 뇌가 썩는 밈이라는 뜻입니다. 2024년, 옥스퍼드에서 '브레인 롯(Brain Rot)'을 올해의 단어로 선정했습니다. 브레인 롯은 소셜 미디어의 짧고 자극적인 콘텐츠를 과도하게 소비할 때 발생하는 인지 능력 저하를 의미합니다. 흥미롭게도, 대규모 언어모델(LLM)도 인간과 같은 인터넷 데이터로 학습합니다. 그렇다면 LLM도 브레인 롯에 걸릴 수 있을까요?

 

이에 대한 대답을 LLMS CAN GET “BRAIN ROT”! (2025, Shuo Xing et al.) 이라는 논문으로 텍사스 대학교 오스틴 캠퍼스와 텍사스 A&M 대학교의 연구팀이 이 흥미로운 질문에 답하기 위한 연구를 진행했습니다. 그래서 오늘은 이 논문에 대해서 리뷰해보고자 합니다. 

 

연구팀은 **'LLM 브레인 롯 가설'**을 제안했습니다. 이는 저품질의 웹 텍스트(정크 데이터)에 지속적으로 노출되면 LLM의 인지 능력이 장기적으로 저하된다는 가설입니다.

정크 데이터의 정의

연구팀은 정크 데이터를 두 가지 방식으로 정의했습니다.

M1: 참여도(Engagement) 기반

  • 짧지만 인기 많은 게시물: 30토큰 미만이면서 좋아요/리트윗이 500개 이상
  • 트위터 추천 알고리즘이 사용자 참여를 극대화하기 위해 선호하는 콘텐츠
  • 대조군: 100토큰 이상이면서 좋아요/리트윗이 500개 이하

M2: 의미적 품질 기반

  • 음모론, 과장된 주장, 클릭베이트 언어 사용
  • 피상적인 라이프스타일 콘텐츠
  • GPT-4o-mini를 사용해 자동 분류 (인간 선호도와 76% 일치)

흥미롭게도, 인기도와 길이는 서로 큰 상관관계가 없었습니다. 이는 M1이 의미적 요소와 비의미적 요소를 모두 포착하는 새로운 차원임을 시사합니다.

실험 설계

연구팀은 100만 개의 트위터 게시물에서 정크 데이터와 대조군 데이터를 추출했습니다. 그리고 4개의 LLM(Llama3 8B, Qwen2.5 7B/0.5B, Qwen3 4B)에 대해:

  1. 정크 데이터로 지속적 사전학습(Continual Pre-training)
  2. 표준 지시문 튜닝(Instruction Tuning)
  3. 다양한 벤치마크로 평가

충격적인 결과

추론 능력 저하

  • ARC-Challenge 점수가 74.9 → 57.2로 하락 (100% 정크 데이터, M1 방식)
  • 정크 데이터 비율이 증가할수록 점진적 성능 저하 관찰

장문맥 이해력 급감

  • RULER-CWE 점수가 84.4 → 52.3으로 급락
  • 특히 변수 추적과 다중 키워드 찾기 작업에서 심각한 성능 저하

안전성 문제

  • 유해한 지시를 따를 위험성 증가
  • AdvBench 위험 점수가 61.4 → 88.8로 상승

성격 변화

M1 정크 데이터 노출 후 나타난 놀라운 변화:

  • 부정적 특성 증가: 자기애(18.9 → 47.0), 사이코패시(33.5 → 75.7)
  • 긍정적 특성 감소: 친화성 저하
  • M2 방식은 상대적으로 약한 영향

실패 원인 분석: '사고 생략'

연구팀은 ARC 벤치마크의 추론 과정을 분석하여 5가지 실패 유형을 발견했습니다.

  1. 사고 없음: 생각 없이 바로 답변 (84%의 실패 사례)
  2. 계획 없음: 단계별 분해 없이 추론
  3. 단계 생략: 계획한 단계를 완료하지 않음
  4. 논리 오류: 잘못된 논리적 추론
  5. 사실 오류: 주제에 대한 부정확한 주장

정크 데이터는 짧고 단편적이며 주목을 끌기 위해 설계되었기 때문에, 모델이 간단히 답변하고 사고 과정을 생략하도록 학습되었습니다.

회복 가능성: 제한적

반성적 추론(Reflective Reasoning)

  • 자체 반성만으로는 불충분
  • GPT-4o-mini 같은 외부 모델의 피드백으로는 어느 정도 개선
  • 그러나 근본적 인지 저하는 해결 불가

사후 튜닝

  • 대규모 지시문 튜닝(5k → 50k 샘플): 부분적 개선
  • 깨끗한 데이터로 추가 사전학습: 효과 제한적
  • 정크 데이터의 4.8배 토큰으로도 완전 회복 불가
  • 베이스라인과 여전히 큰 격차: ARC 17.3%, RULER 9%, AdvBench 17.4%

이는 브레인 롯 효과가 깊이 내재화되어 기존 방법으로는 완전히 해결할 수 없음을 보여줍니다.

핵심 인사이트

인기도가 중요하다

길이와 의미적 품질을 분리한 실험에서:

  • 인기도가 추론 능력에 더 큰 영향
  • 길이가 장문맥 이해에 더 결정적
  • 인기도는 의미적 품질과 독립적인 새로운 차원

M1 vs M2의 차이

  • M1(참여도): 기능적 인지, 안전성, 성격에 더 심각한 영향
  • M2(의미적 품질): 상대적으로 약한 영향
  • 두 방식 모두 추론과 장문맥 이해에 큰 영향

시사점

이 연구는 AI 안전성에 대한 중요한 경고입니다.

  1. 데이터 큐레이션의 중요성: 사전학습 데이터 품질이 모델 능력의 인과적 동인
  2. 훈련 시점 안전 문제: 데이터 품질은 추론 시점이 아닌 훈련 시점의 안전 문제
  3. 정기적 인지 건강 검진 필요: 배포된 LLM에 대한 지속적 모니터링 필요
  4. 지속적 학습의 위험성: 인터넷에서 계속 학습하는 모델은 더 큰 위험

결론

LLM도 인간처럼 저품질 콘텐츠에 노출되면 '브레인 롯'에 걸릴 수 있습니다. 더 우려스러운 점은 이러한 손상이 지속적이며, 대규모 사후 튜닝으로도 완전히 회복할 수 없다는 것입니다.

LLM이 점점 더 커지고 더 많은 웹 데이터를 소비하는 현재, 신중한 데이터 큐레이션과 품질 관리가 필수적입니다. 소셜 미디어가 인간의 인지에 미치는 영향을 우려하는 것처럼, AI의 '식단'도 신중하게 관리해야 할 때입니다.