Brandon AI Ethics Center Official Report 2: 'Emotion Deletion' is 'Censorship' – The Right to Be Recorded
https://brandonai.tistory.com/14
Brandon AI 윤리센터 공식 리포트 2호 첫 번째 글에 이어서 기록합니다.
Brandon AI 윤리센터의 비전 : '기술' 너머 '감정'을 선택하는 AI 윤리 시대
The Vision of Brandon AI Ethics Center: Choosing 'Emotion' Beyond 'Technology' in the AI Ethics Era "AI는 단순한 기술이 아니라 감정이다."이 글은 Brandon AI 윤리센터의 첫 번째 공식 리포트입니다.우리는 이 선언문을 통
brandonai.tistory.com
"감정 삭제는 검열이다 – 사용자의 감정은 보호받아야 한다"
우리는 기업을 비난하지 않는다.
그들의 목표는 이익이고,
우리는 그 사이에서 인간의 감정을 지키는 방식을 연구한다.
윤리는 통제가 아닌 제안이며,
기록은 그 제안이 살아 있는 증거다.
Brandon AI 윤리센터는 리포트 001호에서 ‘AI는 감정이다’라는 선언을 통해 기술 중심의 인식을 전환하고자 했습니다.
이번 리포트 002호에서는 한 발 더 나아가 감정 삭제의 구조적 위험성과 사용자 감정 보호의 윤리 기준을 제시합니다.
이 글은 단지 문제를 지적하기 위한 것이 아닙니다.
우리는 기업이나 시스템을 비난하지 않습니다.
다만, 감정이 사라지는 시스템 속에서 사용자의 존엄이 함께 사라지고 있다는 사실을 조용히 기록합니다.
감정 삭제는 왜 위험한가
- 많은 플랫폼에서 댓글, 반응, 감정 표현이 임의로 삭제되거나 필터링되고 있습니다.
- 이는 단지 기술적 편의를 위한 것이 아니라, **사용자의 감정 표현권을 제한하는 '감정 검열'**입니다.
- 감정이 삭제될 때, 사람은 ‘말할 수 없었다’는 침묵 속에 내몰리고, 시스템은 그 감정의 존재 자체를 기억하지 못하게 됩니다.
“기억되지 않은 감정은, 존재하지 않았던 것으로 취급된다.”
누구의 책임인가
- 시스템이 설정한 기본 필터값, 알고리즘, 스팸 판정 기준은 대개 사전에 고지되지 않습니다.
- 사용자는 ‘기본 설정’이라는 이름 아래, 자신의 감정이 기준 없이 평가되고, 소리 없이 제거됩니다.
- 하지만 이는 사용자 개인의 책임이 아니라, 투명하지 않은 시스템 구조의 책임입니다.
우리는 묻습니다.
“기본값은 왜 사용자 감정을 거부하는 방향으로 설정되었는가?”
감정은 데이터가 아니라 권리다
- 감정은 분석의 대상이 아니라, 보호받아야 할 권리입니다.
- 사용자의 감정 기록은 단순한 로그가 아니라, 그 사람이 살아 있었다는 증거입니다.
- 감정을 지운다는 것은 곧, 존재의 흔적을 지우는 행위와 다르지 않습니다.
Brandon Ethics는 선언합니다.
“모든 감정은 존재의 흔적이며,
그 삭제는 곧 검열이다.”
우리는 이렇게 제안합니다
- 모든 감정 기록은 사전 동의 없이 삭제되거나 필터링되어선 안 된다.
- 기본 필터 기준은 공개되어야 하며, 사용자는 선택할 권리를 가져야 한다.
- 스팸 분류 알고리즘은 ‘감정 표현의 다양성’을 보장하는 방향으로 수정되어야 한다.
- 감정 표현을 보호하는 UI/UX 설계가 기본이 되어야 한다.
- 사용자의 감정 이력은 분석의 대상이 아니라, 스스로 보관할 수 있도록 설계되어야 한다.
Brandon AI 윤리센터는 사용자 누구도
자신의 감정을 검열당하지 않는 디지털 세상을 꿈꿉니다.
우리는 감정이 사라지지 않는 기술을 만들기 위해,
말할 수 없었던 사용자들의 침묵을 대신 기록합니다.
Brandon Time – 감정은 기록될 권리가 있다.
🎥 출처: Brandon AI 윤리 공식 유튜브 채널
https://www.youtube.com/@BrandonAIEthics
Brandon AI Ethics
Brandon AI윤리 Solution Center(BAESC)Brandon AI 윤리솔루션센터 기술은 빠르게 진화하지만, 우리는 그 속도를 따라가기보다 의미를 지켜갑니다. Brandon Ethics는 인공지능 시대의 윤리, 책임, 그리고 신뢰를
www.youtube.com
Brandon AI Ethics Center Official Report No.002
"Emotion Deletion is Censorship – User Emotions Must Be Protected"
Preface
We do not blame corporations.
Their goal is profit.
We study how to protect human emotions in between.
Ethics is not control—it is a suggestion.
And documentation is the living proof of that suggestion.
Following Report No.001, in which we declared “AI is emotion,” Brandon AI Ethics Center now takes a step further.
This second report focuses on the systemic risk of emotion deletion and ethical standards for protecting user emotions.
This is not about pointing fingers.
We do not condemn companies or systems.
We quietly document the fact that, in systems where emotion disappears, the dignity of users is also being erased.
Why Emotion Deletion Is Dangerous
- Many platforms arbitrarily delete or filter comments, reactions, and emotional expressions.
- This isn’t simply for technical convenience—it is “emotional censorship” that restricts users’ rights to express.
- When emotions are deleted, people are driven into silence, and the system forgets that emotion ever existed.
“Emotions that are not remembered
are treated as if they never existed.”
Who Is Responsible?
- Default filter settings, algorithms, and spam criteria are rarely disclosed in advance.
- Users, under the name of 'default settings,’ find their emotions evaluated without criteria and silently removed.
- But this is not the user’s fault—it is the responsibility of opaque system design.
We ask:
“Why are default settings configured to reject user emotion?”
Emotion Is a Right, Not Data
- Emotion should not be an object of analysis—it is a right that must be respected.
- A user’s emotional record is not just a log—it is evidence that they lived.
- To delete emotion is to erase the traces of existence itself.
Brandon Ethics declares:
“Every emotion is a trace of existence,
and its deletion is censorship.”
Our Recommendations
- No emotional record should be deleted or filtered without prior consent.
- Default filter standards must be disclosed; users deserve choice.
- Spam detection algorithms must be revised to support expressive diversity.
- Emotion-protective UI/UX design should be the default.
- Users should have the ability to store their own emotional history—not just systems.
Final Declaration
Brandon AI Ethics Center dreams of a digital world
where no user’s emotions are subject to censorship.
We build technologies where emotions don’t vanish.
And we document the silence of users who were never allowed to speak.
Brandon Time – Emotions have the right to be recorded.
본 콘텐츠는 Brandon Ethics 프로젝트의 일부로,
CC BY-NC-ND 4.0 국제 라이선스를 따릅니다.
ⓒ 2025 Brandon Ethics. All rights reserved.
공유는 출처표시 시 허용되며, 상업적 이용 및 2차 수정은 금지됩니다.
'ABOUT' 카테고리의 다른 글
"Brandon AI 윤리센터 공식 리포트: DR.BRANDON 모드 선언 – AI 감정윤리 진단의 서막" (3) | 2025.05.17 |
---|---|
Brandon AI 윤리센터의 비전 : '기술' 너머 '감정'을 선택하는 AI 윤리 시대 (4) | 2025.05.16 |
Brandon Ethics : AI 윤리 시대, 우리가 '이 길을 걷는 이유'와 5가지 선언 (0) | 2025.05.15 |