étude42 [LeetCode]Two Sum [Questionnaire]Given an array of integers nums and an integer target, return indices of the two numbers such that they add up to target.You may assume that each input would have exactly one solution, and you may not use the same element twice.You can return the answer in any order. Example 1:Input: nums = [2,7,11,15], target = 9Output: [0,1]Explanation: Because nums[0] + nums[1] == 9, we return .. 2025. 7. 7. [ML] gradient descent, gradient ascent 1. Gradient 1.1. Gradient의 결정. 어떤 함수 f에서 f가 가장 빠르게 변화하는 지점은 기울기와 같은 방향을 따른다. f 위 특정 점에서의 Directional Derivative(방향 도함수 : 특정한 방향 v로 이동할 때의 변화율)을 v라고 하면f를 방향 v로 미분하는 식은 : f의 gradient 벡터와 방향 벡터 v의 내적 값이다. Gradient 벡터 ∇f와 방향 벡터 v 사이의 각도를 θ라고 했을 때,위의 식은 곧 다음과 같이 나타낼 수 있다 : cosθ = 1일 때 f의 변화율이 가장 크다. 즉 θ=0일 때 = v가 f의 gradient 방향으로 움직일 때 가장 변화율이 크다. 따라서 f 위의 특정한 점에서 가장 크게 변화하는 방향은 그 점에서의 gradient 방향.. 2025. 2. 28. [논문 리뷰] Amnesiac Unlearning AbstractGDPR는 EU 거주자의 요청 시 데이터(훈련 데이터 포함)를 지울 수 있도록 보장한 법령이다. 근데 딥러닝 신경망은 공격에 취약해서 Model Inversion Attack (클라스 정보를 빼감)나 Membership Inference Attack (특정 example이 데이터에 있는지 확인함) 시 정보 유출이 심각해질 수 있다. 이 논문은 Model Inversion Attack 과 Membership Inference Attack에 취약하지 않도록 모델에서 데이터를 지우는 효과적인 두 가지 방식을 제시한다. 일단 현실적인 threat 모델을 제시해서 단순히 데이터를 지우는 것만으로는 모델이 공격에 취약함을 보여주고, Unlearning과 Amnesiac Unlearning이라는 두 가.. 2025. 2. 7. 이전 1 2 3 4 ··· 14 다음