شبکههای عصبی گرافی (GNN) از جمله مدلهای قدرتمند یادگیری عمیق هستند که برای تحلیل دادههایی با ساختار گراف استفاده میشوند. در این ساختار، دادهها به صورت یک گراف \(G=(V,E)\) تعریف میشوند که در آن \(V\) مجموعهای از گرهها و \(E\) مجموعهای از یالها یا ارتباطات میان گرههاست. هر گره \(v \in V\) با یک بردار ویژگی \(x_v \in \mathbb{R}^d\) مشخص میشود.
شبکههای عصبی گرافی عموماً از طریق یک مکانیزم انتشار پیام (Message Passing) کار میکنند که میتوان آن را به صورت ریاضی به این شکل بیان کرد:
\[\mathbf{h}_v^{(k)} = \sigma\left(\mathbf{W}^{(k)} \sum_{u \in \mathcal{N}(v)} \frac{1}{\sqrt{|\mathcal{N}(v)||\mathcal{N}(u)|}} \mathbf{h}_u^{(k-1)} + \mathbf{b}^{(k)}\right)\]
که در آن، \(h_v^{(k)}\) نمایش برداری گره \(v\) در لایه \(k\)، \(W^{(k)}\) ماتریس وزن و \(b^{(k)}\) بردار بایاس در لایه \(k\) هستند. همچنین، \(\mathcal{N}(v)\) مجموعه همسایگان گره \(v\) را نشان میدهد و \(\sigma(\cdot)\) تابع فعالسازی (مانند ReLU یا tanh) است. بردار نمایش اولیه هر گره نیز عموماً ویژگیهای اولیه گره است، یعنی:
\[\mathbf{h}_v^{(0)} = \mathbf{x}_v \]
هدف از GNNها تولید یک نمایش برداری بهینه برای هر گره است به نحوی که خصوصیات گرهها و ساختار گراف در آنها به خوبی رمزگذاری شود. این بازنماییها سپس میتوانند در مسائل مختلف یادگیری ماشین، مانند دستهبندی گرهها، پیشبینی لینکها و دستهبندی کل گرافها مورد استفاده قرار گیرند.
یکی از کاربردهای اصلی GNN در تحلیل شبکههای اجتماعی، سامانههای توصیهگر، شیمی محاسباتی و سیستمهای زیستی است، چرا که ساختار دادهها در این حوزهها بهطور طبیعی به صورت گراف قابل نمایش است.