گرافها مفاهیم پایهای در مطالعهٔ شبکههای عصبی گرافی (GNNها) هستند. بنابراین، برای درک جامع از GNN، آشنایی با نظریهٔ پایهٔ گراف ضروری است.
گرافها مفاهیم پایهای در مطالعهٔ شبکههای عصبی گرافی (GNNها) هستند. بنابراین، برای درک جامع از GNN، آشنایی با نظریهٔ پایهٔ گراف ضروری است.
عدم قطعیت در زمینه یادگیری ماشین همه جا وجود دارد، بنابراین ما باید از نظریه احتمال برای تعیین کمیت عدم قطعیت استفاده کنیم. در این بخش، برخی از مفاهیم اساسی و توزیعهای کلاسیک در نظریه احتمال را که برای درک بقیه مطالب ضروری هستند، مرور میکنیم.
شبکههای عصبی گرافی (GNN) از جمله مدلهای قدرتمند یادگیری عمیق هستند که برای تحلیل دادههایی با ساختار گراف استفاده میشوند. در این ساختار، دادهها به صورت یک گراف \(G=(V,E)\) تعریف میشوند که در آن \(V\) مجموعهای از گرهها و \(E\) مجموعهای از یالها یا ارتباطات میان گرههاست. هر گره \(v \in V\) با یک بردار ویژگی \(x_v \in \mathbb{R}^d\) مشخص میشود.
شبکههای عصبی گرافی عموماً از طریق یک مکانیزم انتشار پیام (Message Passing) کار میکنند که میتوان آن را به صورت ریاضی به این شکل بیان کرد:
\[\mathbf{h}_v^{(k)} = \sigma\left(\mathbf{W}^{(k)} \sum_{u \in \mathcal{N}(v)} \frac{1}{\sqrt{|\mathcal{N}(v)||\mathcal{N}(u)|}} \mathbf{h}_u^{(k-1)} + \mathbf{b}^{(k)}\right)\]
که در آن، \(h_v^{(k)}\) نمایش برداری گره \(v\) در لایه \(k\)، \(W^{(k)}\) ماتریس وزن و \(b^{(k)}\) بردار بایاس در لایه \(k\) هستند. همچنین، \(\mathcal{N}(v)\) مجموعه همسایگان گره \(v\) را نشان میدهد و \(\sigma(\cdot)\) تابع فعالسازی (مانند ReLU یا tanh) است. بردار نمایش اولیه هر گره نیز عموماً ویژگیهای اولیه گره است، یعنی:
\[\mathbf{h}_v^{(0)} = \mathbf{x}_v \]
هدف از GNNها تولید یک نمایش برداری بهینه برای هر گره است به نحوی که خصوصیات گرهها و ساختار گراف در آنها به خوبی رمزگذاری شود. این بازنماییها سپس میتوانند در مسائل مختلف یادگیری ماشین، مانند دستهبندی گرهها، پیشبینی لینکها و دستهبندی کل گرافها مورد استفاده قرار گیرند.
یکی از کاربردهای اصلی GNN در تحلیل شبکههای اجتماعی، سامانههای توصیهگر، شیمی محاسباتی و سیستمهای زیستی است، چرا که ساختار دادهها در این حوزهها بهطور طبیعی به صورت گراف قابل نمایش است.