نُرم (Norm) یکی از مفاهیم ریاضی است که کاربرد مهمی در زمینههای مختلف علوم و مهندسی دارد. یکی از کاربردهای مهم نرم در یادگیری ماشین و یادگیری عمیق است. نرم عموماً برای ارزیابی خطای یک مدل مورد استفاده قرار میگیرد. علاوه بر این، نرم برای محاسبه خطای بین خروجی یک شبکه عصبی و آنچه مورد انتظار است (برچسب یا مقدار واقعی) نیز به کار میرود. نرم را میتوان به عنوان طول یک بردار در نظر گرفت. این مفهوم، تابعی است که یک بردار را به یک مقدار مثبت مینگارد. از توابع مختلفی برای این نگاشت استفاده میشود که در ادامه، چند مورد از آنها را بیان خواهیم کرد.
نرم چیست؟
محاسبه نرم p
نرم ماتریس: فرم فروبنیوس
توصیف ضرب نقطهای با نرمها
نرم چیست؟
نرم تابعی است که مشخصههای زیر را دارد:
نرمها مقادیری نامنفی هستند. اگر نرمها را به عنوان طول در نظر بگیریم، میتوان به سادگی دید که چرا نمیتوانند منفی شوند.
نرمها صفر هستند، اگر و فقط اگر بردار صفر باشد.
نرمها از نامساوی مثلثی تبعیت میکنند.
نرم یک بردار ضرب در یک اسکالر، برابر با ضرب قدر مطلق این اسکالر در نرم بردار است: $| | \mathbf{k\cdot u } || = |\mathbf { k } | \cdot || \mathbf{u} | |$نرم x را معمولاً با نماد ||x|| نشان میدهند.
اما نامساوی مثلثی چیست؟ نامساوی مثلثی بیان میکند که نرم مجموع چند بردار، کوچکتر یا مساوی با مجموع نرمهای این بردارها است.||u+v||≤||u||+||v||
نمایش برداری نامساوی مثلثی
محاسبه نرم p
در این بخش، نحوه به دست آوردن نرم p بردار را بیان میکنیم. گامهای محاسبه نرم p به صورت زیر است:
قدر مطلق هر درایه را حساب کنید.
مقادیر به دست آمده را به توان p برسانید.همه قدر مطلقهای به توان$1 / p$ رسیده را با هم جمع کنید.
موارد بالا را میتوان با فرمول زیر بیان کرد:$\large || { \mathbf { x } } || _ p = ( \sum _ i | \mathbf { x } _ i | ^ p ) ^ { 1 / p }$
برای موارد گوناگون، نرمهای مختلفی تعریف شده است که در ادامه، مهمترین آنها را بیان خواهیم کرد.
نرم $\Large L ^ 0$
اگر هر عددی را به توان 0 برسانیم، حاصل آن برابر با 1 خواهد شد (به جز 0 که حاصل آن برابر با صفر است). بنابراین، حاصل این نرم، متناظر با تعداد عناصر غیرصفر در بردار است. البته این مورد، در واقع یک نرم نیست، زیرا اگر بردار را در
α ضرب کنیم، عدد تغییری نخواهد کرد نرم $\Large L ^ 1$اگر p=1، آنگاه نرم برابر با مجموع قدر مطلقها خواهد بود:$\large || { \mathbf { x } } || _ 1 = \sum _ { i } | \mathbf { x } _ i |$نرم اقلیدسی (نرم $\Large L ^ 2$)نرم اقلیدسی نرم p با p=2 است که به صورت زیر تعریف میشود:$\large || { \mathbf { x } } || _ 2 = ( \sum _ i \mathbf { x } _ i ^ 2 ) ^ { 1 / 2 } \Leftrightarrow \sqrt { \sum _ i \mathbf { x } _ i ^ 2 }$
نرم اقلیدسی مربعی
نرم اقلیدسی مربعی (Squared Euclidean Norm)، نرم مناسبی است، زیرا ریشه مربع را حذف میکند و مجموع سادهای از هر کدام از مقدارهای مربع بردار است.
نرم اقلیدسی مربعی استفاده گستردهای در یادگیری ماشین دارد، زیرا میتوان آن را با عملگر برداری $\mathbf{x} ^ T \mathbf{x}$ محاسبه کرد.
مشتق نرم $\Large L ^ 2$ مربعی یک مزیت دیگر نرم $\Large L ^ 2$L2 مربعی این است که مشتق جزئی آن به سادگی محاسبه میشود:$\large u = \begin {bmatrix} u _ 1 \\\\ u _ 2 \\\\ \cdots \\\\ u _ n \end {bmatrix}$
$\large || { u } || _ 2 = u _1 ^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2$
$\large \begin {cases} \dfrac { d || { u }|| _ 2 } { d u _ 1 } = 2 u _ 1 \\\\ \dfrac { d || { u } || _ 2 } { d u _ 2 } = 2 u _ 2 \\\\ \cdots\\\\ \dfrac { d || { u } || _ 2 } { d u _ n } = 2 u _ n \end {cases}$
مشتق نرم $\Large L ^ 2$در حالتی که نرم $\Large L ^ 2$ داریم، محاسبه مشتق دشوارتر است:
$\large || { u } || _ 2 = \sqrt { ( u _ 1 ^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2 ) } = ( u _ 1 ^ 2 +u _ 2 ^ 2+ \cdots + u _ n ^ 2 )^ { \frac { 1 } { 2 } }$
$\large \begin {align*} \dfrac { d || { u } || _ 2 } { d u _ 1 } & = \dfrac { 1 } { 2 }( u _ 1 ^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2 ) ^ { \frac { 1 } { 2 } – 1 } \cdot \dfrac { d } { d u _ 1 }( u _ 1 ^ 2 + u _ 2 ^ 2 + \cdots + u _n ^ 2 ) \\\\ & = \dfrac { 1 } { 2} ( u _ 1 ^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2 ) ^ { – \frac { 1 } { 2 } } \cdot \dfrac { d } { d u _ 1 }( u _ 1 ^ 2+ u _ 2 ^ 2 + \cdots + u _ n ^ 2 ) \\\\ & = \dfrac { 1 } { 2 } \cdot \dfrac { 1 } { ( u _ 1^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2) ^ { \frac { 1 } { 2 } } } \cdot \dfrac { d } { d u _ 1} ( u _ 1 ^ 2 +u _ 2 ^ 2 + \cdots + u _ n ^ 2 ) \\\\ & = \dfrac { 1 } { 2 } \cdot \dfrac { 1 } { ( u _ 1 ^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2) ^ { \frac { 1 } { 2 } } } \cdot 2 \cdot u _ 1 \\\\ & = \dfrac { u _ 1 } { \sqrt { ( u _ 1 ^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2 ) } } \\\\ \end {align*}$
$\large \begin{cases} \dfrac { d || { u } || _ 2 } { d u _ 1 } = \dfrac { u _ 1 } { \sqrt { ( u _ 1 ^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2 ) } } \\\\ \dfrac { d || { u } || _ 2 } { d u _ 2 } = \dfrac { u _ 2 } { \sqrt { ( u _ 1 ^ 2 + u _ 2 ^ 2 + \cdots + u _ n ^ 2 ) } } \\\\ \cdots\\\\ \dfrac { d || { u } || _ 2 } { d u _ n } = \dfrac { u _ n } { \sqrt { ( u _ 1 ^ 2+ u _2 ^ 2 + \cdots + u _ n ^ 2 ) } } \\\\ \end {cases}$
یکی از معایب نرم $L ^ 2$
مربعی این است که به سختی بین صفر و مقادیر کوچک تمایز قائل میشود، زیرا افزایش تابع آن کند است.این مورد را میتوان به صورت گرافیکی و از طریق مقایسه نرم $L ^ 2$ مربعی و نرم $L ^ 2$ مشاهده کرد. محور z متناظر با نرم و محورهای x و y متناظر با دو پارامتر هستند. همین مورد برای بیش از دو بعد نیز صدق میکند، اما نمایش بصری آن دشوار است.شکل زیر نرم $L ^ 2$
را نشان میدهد.نرم $ L ^ 2 $ نرم مربعی نرم $ L ^ 2 $ مربعی نرم $L ^ 2$ مربعی و در نهایت، نرم $L ^ 1$
نرم $ L ^ 1 $نرم ماکزیمم
نرم ماکزیمم همان نرم $L ^ \infty$ است و قدر مطلق بزرگترین درایه بردار را مشخص میکند.$\large || { \mathbf { x } } || _ \infty = \max \limits _ i | x _ i |$نرم ماتریس: فرم فروبنیوس معادله نرم $L ^ 2$
یک ماتریس به صورت زیر است:$\large || { \mathbf { A } } || _ F = \sqrt { \sum _ { i , j } A ^ 2 _ { i , j } }$
توصیف ضرب نقطهای با نرمها ضرب نقطهای دو بردار به صورت زیر بیان میشود:
$\large \mathbf { x } ^ \text {T}\mathbf { y } = \||{ \mathbf { x } } || _ 2 \cdot || { \mathbf { y } } || _ 2 \cos \theta$
hope I helped you understand the question. Roham Hesami, sixth
semester of aerospace engineering
رهام حسامی ترم ششم مهندسی هوافضا
نُرم (Norm)
- rohamavation
نام: roham hesami radرهام حسامی راد
محل اقامت: 100 مایلی شمال لندن جاده آیلستون، لستر، لسترشر. LE2
عضویت : سهشنبه ۱۳۹۹/۸/۲۰ - ۰۸:۳۴
پست: 3289-
سپاس: 5494
- جنسیت:
تماس: