최근 바뀜

IT 위키

이 페이지에서 위키의 최근 바뀜을 추적합니다.

최근 바뀜 설정 최근 1 | 3 | 7 | 14 | 30일간의 50 | 100 | 250 | 500개 바뀐 문서 보기
등록된 사용자 숨기기 | 익명 사용자를 숨기기 | 내 편집 숨기기 | 보이기 | 사소한 편집 숨기기
2025년 11월 1일 (토) 05:20부터 시작하는 새로 바뀐 문서 보기
   
약어 목록:
새글
새 문서 (새 문서 목록도 보세요)
잔글
사소한 편집
봇이 수행한 편집
(±123)
바이트 수로 표현한 문서 크기의 차이

2025년 10월 30일 (목)

새글    13:20  Kademlia 차이역사 +3,419 Dcn 토론 기여 (새 문서: Kademlia는 분산 해시 테이블(DHT, Distributed Hash Table)을 기반으로 하는 피어 투 피어(P2P) 네트워크 프로토콜이다. 800x800픽셀 ==개요== Kademlia는 2002년 Petar Maymounkov과 David Mazières가 제안한 P2P 시스템 설계로, 중앙 서버 없이 자율적인 노드 간의 검색 및 데이터 저장을 가능하게 한다. 주로 파일 공유 시스템, 블록체인, IPFS, BitTorrent 등에서 사용된다. Kademlia...) 태그: 시각 편집
     13:02  (올리기 기록) [Dcn‎; 인공무능‎]
     
13:02 Dcn 토론 기여님이 파일:Kademlia.png 파일을 올렸습니다 ‎
     
02:10 인공무능 토론 기여님이 파일:채널별 이상치.png 파일을 올렸습니다 ‎
     13:00  (사용자 만들기 기록) [Erusipy‎; Dcn‎]
     
13:00 Dcn 토론 기여 계정이 생성되었습니다 ‎
     
11:23 Erusipy 토론 기여 계정이 생성되었습니다 ‎
     13:00 삭제 기록 Itwiki 토론 기여님이 Виды стрижки боб каре с челкой 문서를 삭제했습니다 ‎(23.189.168.154님이 추가한 문서를 대량 삭제함)
     13:00 차단 기록 Itwiki 토론 기여님이 23.189.168.154 토론님을 무기한 차단했습니다 (계정 만들기 금지됨) ‎
     07:53  희소 데이터‎‎ 2개 바뀜 역사 +1,494 [인공무능‎ (2×)]
     
07:53 (최신 | 이전) +17 인공무능 토론 기여 태그: 시각 편집
     
07:53 (최신 | 이전) +1,477 인공무능 토론 기여
새글    07:35  딥 러닝 옵티마이저‎‎ 3개 바뀜 역사 +4,241 [인공무능‎ (3×)]
     
07:35 (최신 | 이전) 0 인공무능 토론 기여 태그: 시각 편집
     
07:19 (최신 | 이전) −1 인공무능 토론 기여 태그: 시각 편집
새글    
07:11 (최신 | 이전) +4,242 인공무능 토론 기여 (새 문서: '''딥 러닝 옵티마이저(Deep Learning Optimizer)'''는 딥러닝 모델의 학습 과정에서 손실 함수(loss function)를 최소화하기 위해 신경망의 가중치 및 편향 등의 파라미터를 반복적으로 갱신하는 알고리즘이다. 이러한 최적화 알고리즘은 고차원, 비선형, 대규모 파라미터 공간을 가진 신경망에서 효율적이고 안정적으로 학습이 이루어지도록 하는 핵심 구성 요소이다. ==개념...) 태그: 시각 편집
새글    07:32  가중치 감쇠 차이역사 +3,585 인공무능 토론 기여 (새 문서: 가중치 감소(Weight Decay)는 머신러닝 및 딥러닝에서 과적합(overfitting)을 방지하기 위한 정규화(regularization) 기법이다. 학습 과정에서 모델의 가중치(weight)가 지나치게 커지는 것을 억제하여, 일반화(generalization) 능력을 향상시키는 역할을 한다. ==개요== 가중치 감소는 손실 함수(loss function)에 '''가중치의 크기(weight magnitudes)''' 에 대한 '''페널티(penalty)''' 를 추가함으로...)
     07:32  가중치 감소‎‎ 2개 바뀜 역사 −3,516 [인공무능‎ (2×)]
     
07:32 (최신 | 이전) −3,551 인공무능 토론 기여 (가중치 감쇠 문서로 넘겨주기) 태그: 새 넘겨주기
     
07:30 (최신 | 이전) +35 인공무능 토론 기여 태그: 시각 편집
새글    07:32  L2 정규화 차이역사 +3,487 인공무능 토론 기여 (새 문서: '''L2 정규화'''(L2 Regularization)는 머신러닝과 딥러닝에서 모델의 복잡도를 억제하고 과적합(overfitting)을 방지하기 위해 손실 함수에 가중치의 제곱합을 추가하는 정규화 기법이다. 일반적으로 가'''중치 감쇠(weight decay)''' 또는 '''릿지 정규화(Ridge Regularization)''' 라고도 불린다. ==개념== L2 정규화는 모델의 파라미터(가중치)가 지나치게 커지지 않도록 제약을 부여한...) 태그: 시각 편집
새글    07:28  AdaGrad 옵티마이저 차이역사 +3,221 인공무능 토론 기여 (새 문서: '''AdaGrad'''(Adaptive Gradient Algorithm)은 각 파라미터마다 학습률(learning rate)을 다르게 적용하여, 파라미터별로 변화량을 자동 조정하는 적응형(Adaptive) 옵티마이저 알고리즘이다. 2011년 John Duchi, Elad Hazan, Yoram Singer가 제안했으며, 희소(sparse) 데이터나 자연어 처리와 같은 영역에서 특히 효과적이다. ==개념== 기존 경사 하강법(Gradient Descent)은 모든 파라미터에 동일한 학...) 태그: 시각 편집
새글    07:26  RMSProp 차이역사 +2,900 인공무능 토론 기여 (새 문서: '''RMSProp'''(Root Mean Square Propagation)은 신경망 학습 시 기울기(gradient)의 크기를 제곱평균제곱근(Root Mean Square)으로 정규화하여, 학습률(learning rate)을 파라미터별로 자동 조정하는 적응형(Adaptive) 옵티마이저 알고리즘이다. 2012년 Geoffrey Hinton이 제안했으며, 딥러닝의 대표적인 적응형 경사 하강법 중 하나로 꼽힌다. ==개념== RMSProp은 AdaGrad의 변형 알고리즘으로, AdaGrad...) 태그: 시각 편집
     07:14  옵티마이저 차이역사 +156 인공무능 토론 기여 (데이터베이스 옵티마이저에 대한 넘겨주기를 제거함) 태그: 넘겨주기 제거 시각 편집
     07:11  컴퓨터시스템응용기술사 110회‎‎ 2개 바뀜 역사 +47 [인공무능‎ (2×)]
     
07:11 (최신 | 이전) +8 인공무능 토론 기여 태그: 시각 편집
     
07:11 (최신 | 이전) +39 인공무능 토론 기여 태그: 시각 편집
새글    07:00  트랜스포머 차이역사 +48 인공무능 토론 기여 (트랜스포머 (인공지능) 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
     06:59  드롭아웃 차이역사 +2,626 인공무능 토론 기여
새글    06:55  선형 변환 차이역사 +2,154 인공무능 토론 기여 (새 문서: 선형 변환(英: linear transformation, 漢: 線形變換)은 벡터 공간 V에서 또 다른 벡터 공간 W로의 함수 T:V→W로서, 덧셈과 스칼라 곱이라는 벡터 공간의 구조를 보존하는 변환이다. ==정의== 벡터 공간 V와 W가 동일한 스칼라 체(예: 실수, 복소수) 위에 있을 때, 함수 T:V→W가 다음 두 조건을 만족하면 이를 선형 변환이라 한다. #모든 벡터 u, v ∈ V에 대해 T(u + v) = T(u) + T(v) #모...) 태그: 시각 편집
새글    06:43  쿨백-라이블러 발산‎‎ 2개 바뀜 역사 +3,590 [인공무능‎ (2×)]
     
06:43 (최신 | 이전) 0 인공무능 토론 기여
새글    
06:41 (최신 | 이전) +3,590 인공무능 토론 기여 (새 문서: '''쿨백-라이블러 발산''' (Kullback–Leibler Divergence, 약칭 '''KL Divergence''')은 두 확률 분포 간의 차이를 측정하는 통계적 척도이다. 주로 확률 모델의 예측 분포와 실제 분포의 불일치 정도를 정량화하는 데 사용되며, 정보이론, 기계학습, 언어모델(LLM) 등에서 광범위하게 활용된다. ==정의== KL 발산은 두 개의 확률분포 \( P(x) \) (참값 분포)와 \( Q(x) \) (모델 분포)가 있을...) 태그: 시각 편집
새글    06:11  지식 증류‎‎ 2개 바뀜 역사 +5,427 [인공무능‎ (2×)]
     
06:11 (최신 | 이전) +30 인공무능 토론 기여 태그: 시각 편집: 전환됨
새글    
05:23 (최신 | 이전) +5,397 인공무능 토론 기여 (새 문서: '''지식 증류'''(Knowledge Distillation, KD)는 대형 신경망(Teacher Model)이 학습한 지식을 작은 신경망(Student Model)에 전이(distill)하여 효율적 성능을 달성하는 모델 압축 기법이다.<ref>Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. "Distilling the knowledge in a neural network." arXiv:1503.02531 (2015).</ref> 대형 모델이 가진 복잡한 표현과 분류 경계 정보를 소형 모델이 간접적으로 학습하게 함으로써,...) 태그: 시각 편집
새글    05:18  LoRA (인공지능) 차이역사 +4,694 인공무능 토론 기여 (새 문서: '''LoRA'''(Low-Rank Adaptation)는 대형 언어모델(LLM) 등 초거대 신경망의 선형층(linear layer)을 효율적으로 미세조정(fine-tuning)하기 위한 '''저차원 보정'''(low-rank adaptation) 기법이다.<ref name="lora2022">[https://arxiv.org/abs/2106.09685 Hu, Edward J., et al. "LoRA: Low-Rank Adaptation of Large Language Models." ICLR (2022).]</ref> 전체 파라미터를 재학습하지 않고, 각 선형변환 가중치 행렬에 작은 저랭크(rank-...) 태그: 시각 편집
새글    05:17  파라미터 효율적 미세조정‎‎ 2개 바뀜 역사 +4,572 [인공무능‎ (2×)]
     
05:17 (최신 | 이전) +14 인공무능 토론 기여 태그: 시각 편집
새글    
04:53 (최신 | 이전) +4,558 인공무능 토론 기여 (새 문서: '''파라미터 효율적 미세조정'''(Parameter-Efficient Fine-Tuning, '''PEFT''')은 대형 언어모델(LLM) 등 초거대 신경망의 모든 파라미터를 다시 학습시키는 대신, 일부 파라미터만 선택적으로 학습하여 특정 다운스트림(downstream) 태스크에 효율적으로 적응시키는 기법이다.<ref name="lora2022">[https://arxiv.org/abs/2106.09685 Hu, Edward J., et al. "LoRA: Low-Rank Adaptation of Large Language Models." ICLR (2022)...) 태그: 시각 편집
새글    04:40  블록별 자기지도 학습 차이역사 +5,394 인공무능 토론 기여 (새 문서: '''블록별 자기지도 학습'''(Block-Wise Self-Supervised Learning)은 심층신경망(Deep Neural Network)의 전역 역전파(global backpropagation)로 인한 메모리 병목 문제를 해결하기 위해, 모델을 여러 블록(block) 단위로 나누고 각 블록에 자기지도 손실(self-supervised loss)을 도입하여 독립적으로 표현 학습을 수행하는 기법이다.<ref name="bim2023">[https://arxiv.org/abs/2311.17218 Luo, Yuxuan, Mengye Ren, and Sai...) 태그: 시각 편집
새글    04:12  DoReFa-Net 차이역사 +3,482 인공무능 토론 기여 (새 문서: '''DoReFa-Net'''은 저정밀도 신경망 학습을 가능하게 하는 기법으로, 가중치(weight), 활성값(activation), 그리고 그래디언트(gradient)를 모두 저비트 정밀도에서 표현하여 연산 효율과 메모리 사용량을 크게 줄이는 방법이다.<ref name="zhou2016">[https://arxiv.org/abs/1606.06160 Zhou, Shuchang, et al. "DoReFa-Net: Training Low Bitwidth Convolutional Neural Networks with Low Bitwidth Gradients." arXiv preprint arXiv:1606....) 태그: 시각 편집
     02:47  대형 언어 모델 효율화‎‎ 4개 바뀜 역사 +4,045 [인공무능‎ (4×)]
     
02:47 (최신 | 이전) +690 인공무능 토론 기여 태그: 시각 편집
     
02:40 (최신 | 이전) +434 인공무능 토론 기여 태그: 시각 편집
     
02:38 (최신 | 이전) +3,376 인공무능 토론 기여
     
02:30 (최신 | 이전) −455 인공무능 토론 기여 태그: 시각 편집
새글    02:17  대형 언어 모델 채널별 이상치‎‎ 2개 바뀜 역사 +6,305 [인공무능‎ (2×)]
     
02:17 (최신 | 이전) +36 인공무능 토론 기여 태그: 시각 편집
새글    
02:11 (최신 | 이전) +6,269 인공무능 토론 기여 (새 문서: '''대형 언어 모델 채널별 이상치 (Channelwise Outlier in Large Language Models)'''는 트랜스포머(Transformer) 기반 신경망 내부에서 특정 채널(hidden dimension)들이 다른 채널보다 훨씬 큰 활성값을 갖는 현상을 의미한다. 이러한 현상은 대형 언어 모델(LLM)의 Layer Normalization과 Scaling 과정에서 반복적으로 관찰되며, 수치적 이상치(outlier)라기보다 모델 구조상 필연적으로 발생하는 활...) 태그: 시각 편집
     02:01  과도한 활성값 차이역사 +809 인공무능 토론 기여 태그: 시각 편집

2025년 10월 28일 (화)

새글    15:29  표준 합성곱 차이역사 +34 인공무능 토론 기여 (일반 합성곱 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
     15:27  합성곱 신경망 차이역사 −227 인공무능 토론 기여 태그: 시각 편집
새글    13:14  일반 합성곱‎‎ 2개 바뀜 역사 +3,555 [인공무능‎ (2×)]
     
13:14 (최신 | 이전) +173 인공무능 토론 기여
새글    
13:12 (최신 | 이전) +3,382 인공무능 토론 기여 (새 문서: 일반 합성곱(standard convolution, 일반的 合成곱)은 인공신경망, 특히 합성곱 신경망(CNN)에서 입력 특징맵과 학습 가능한 필터 간의 연산을 통해 출력 특징맵을 생성하는 가장 기본적인 형태의 합성곱 연산이다. ==정의== <nowiki>일반 합성곱은 입력 텐서 \(X \in \mathbb{R}^{H \times W \times C_{in}}\)과 필터 텐서 \(K \in \mathbb{R}^{k_H \times k_W \times C_{in} \times C_{out}}\)를 사용하여 출력...) 태그: 시각 편집
     05:23  동물 이름 모음 차이역사 +28 Itwiki 토론 기여 태그: 수동 되돌리기 시각 편집
     05:21 차단 기록 Itwiki 토론 기여님이 119.193.18.45 토론님을 무기한 차단했습니다 (계정 만들기 금지됨) ‎(문서에 장난성 내용을 넣음)

2025년 10월 27일 (월)