Search results
Jump to navigation
Jump to search
- === ۵. مقیاسبندی Power Transformer === * اگر میخواهید توزیع دادهها را بهبود ببخشید، از مقیاسبندی Power Transformer استفاده کنید. ...12 KB (195 words) - 18:11, 13 May 2025
- === Vision Transformer (ViT) : معرفی، معماری و کاربردها === ...را معرفی کرد که به سرعت توجه محققان و متخصصان را به خود جلب نمود: [[Vision Transformer]] یا ViT. ...18 KB (222 words) - 12:32, 30 April 2025
- ...س معماری [[رمزگذار-رمزگشا]] (Encoder-Decoder) ساخته شدهاند. معماری کلی یک Transformer شامل دو بخش اصلی است: ...'BERT (Bidirectional Encoder Representations from Transformers):''' یک مدل Transformer پیشآموزشدیده است که برای درک زبان طبی� ...15 KB (340 words) - 09:16, 30 April 2025
- GPT، یا Generative Pre-trained Transformer، یکی از پیشرفتهترین و پرکاربردترین مدل� ...عمیق است که توسط شرکت OpenAI توسعه داده شده است. این مدل بر اساس معماری [[Transformer]] ساخته شده و با استفاده از حجم عظیمی از دا ...12 KB (156 words) - 20:50, 26 March 2025
- ...یادگیری عمیق است که برای پردازش دادههای ترتیبی، مانند متن، طراحی شده است. Transformer از مکانیسم [[توجه (Attention Mechanism)]] برای وزند * **BERT-Base:** این مدل دارای 12 لایه Transformer، 768 واحد پنهان و 12 سر توجه است. ...13 KB (132 words) - 08:31, 6 May 2025
- ...'''مدلهای زبانی (Language Models):''' مدلهایی مانند [[RNN]]، [[LSTM]]، [[Transformer]] و [[BERT]] برای مدلسازی زبان و پیشبینی تو * [[Transformer]] ...13 KB (163 words) - 14:57, 15 May 2025
- ...سالهای اخیر توجه زیادی را به خود جلب کرده، مدل T5 (Text-to-Text Transfer Transformer) است. T5 توسط گوگل توسعه یافته و رویکردی یک� T5 یک مدل زبانی مبتنی بر معماری [[Transformer]] است که توسط گوگل در سال 2019 معرفی شد. آنچه ...14 KB (280 words) - 11:10, 6 May 2025
- GPT-3 (Generative Pre-trained Transformer 3) یک [[مدل زبانی]] بزرگ است که توسط شرکت OpenAI GPT-3 بر اساس معماری [[Transformer]] ساخته شده است. این معماری به مدل اجازه می ...11 KB (145 words) - 19:08, 28 April 2025
- * **مدلهای مبتنی بر Transformer:** مدلهای [[Transformer]]، مانند [[BERT]] و [[RoBERTa]]، به طور کامل بر اساس [[Transformer]] ...17 KB (115 words) - 14:02, 5 May 2025
- ...coder Representations from Transformers)]] و [[GPT (Generative Pre-trained Transformer)]] به طور گستردهای در تحلیل احساسات استف� [[GPT (Generative Pre-trained Transformer)]] ...14 KB (114 words) - 13:51, 5 May 2025
- * **DETR (DEtection TRansformer):** این روش از معماری Transformer برای تشخیص اشیاء استفاده میکند و نیازی � ...15 KB (162 words) - 22:39, 6 May 2025
- ...tations from Transformers):** BERT یک مدل زبانی قدرتمند است که از معماری [[Transformer]] استفاده میکند. BERT میتواند بردار کلما� ...[[فاصله]]، [[شبکه عصبی]]، [[مجموعه داده بزرگ]]، [[زیرکلمهها]]، [[متن]]، [[Transformer]]، [[تشخیص احساسات]]، [[خلاصهسازی متن]]، [[ت ...12 KB (88 words) - 11:28, 6 May 2025
- ...ردازش زبان طبیعی به دستاوردهای چشمگیری دست یافته است (مانند BERT و GPT). [[Transformer]] [[Transformer]] ...41 KB (222 words) - 08:33, 26 March 2025
- * **Transformer:** یک شیء که دادهها را به شکل دیگری تبدیل ...11 KB (301 words) - 02:26, 7 May 2025
- ...'شبکههای عصبی عمیق (Deep Neural Networks):''' شبکههای عصبی عمیق، مانند [[Transformer]]، میتوانند برای یادگیری نمایشهای پیچ� * [[Transformer]] ...13 KB (177 words) - 14:31, 15 May 2025
- ...ورمر (Transformer-based Detectors):** شبکههایی مانند [[DETR]] (DEtection TRansformer) از معماری ترانسفورمر برای تشخیص اشیا است ...15 KB (176 words) - 22:38, 6 May 2025
- ...der Representations from Transformers) و '''GPT''' (Generative Pre-trained Transformer) استفاده میشوند. ...16 KB (331 words) - 14:07, 26 March 2025
- ...های دست یافتهاند. [[مدلهای زبانی بزرگ]] مانند BERT و GPT بر اساس معماری Transformer ساخته شدهاند. ...14 KB (246 words) - 18:20, 16 May 2025
- در سالهای اخیر، با ظهور [[یادگیری عمیق]] و مدلهای زبانی بزرگ ([[Transformer]]ها مانند [[BERT]]، [[GPT]]، و [[RoBERTa]])، دقت تحلیل � ...16 KB (114 words) - 01:39, 30 April 2025
- ...ین روش به مدل اجازه میدهد تا روابط بین بخشهای مختلف ورودی را درک کند. [[Transformer]]، یک معماری قدرتمند در NLP، به طور گسترده ا ...14 KB (199 words) - 09:11, 7 May 2025