Search results

Jump to navigation Jump to search
Баннер1
  • === ۵. مقیاس‌بندی Power Transformer === * اگر می‌خواهید توزیع داده‌ها را بهبود ببخشید، از مقیاس‌بندی Power Transformer استفاده کنید. ...
    12 KB (195 words) - 18:11, 13 May 2025
  • === Vision Transformer (ViT) : معرفی، معماری و کاربردها === ...را معرفی کرد که به سرعت توجه محققان و متخصصان را به خود جلب نمود: [[Vision Transformer]] یا ViT. ...
    18 KB (222 words) - 12:32, 30 April 2025
  • ...س معماری [[رمزگذار-رمزگشا]] (Encoder-Decoder) ساخته شده‌اند. معماری کلی یک Transformer شامل دو بخش اصلی است: ...'BERT (Bidirectional Encoder Representations from Transformers):''' یک مدل Transformer پیش‌آموزش‌دیده است که برای درک زبان طبی� ...
    15 KB (340 words) - 09:16, 30 April 2025
  • GPT، یا Generative Pre-trained Transformer، یکی از پیشرفته‌ترین و پرکاربردترین مدل� ...عمیق است که توسط شرکت OpenAI توسعه داده شده است. این مدل بر اساس معماری [[Transformer]] ساخته شده و با استفاده از حجم عظیمی از دا ...
    12 KB (156 words) - 20:50, 26 March 2025
  • ...یادگیری عمیق است که برای پردازش داده‌های ترتیبی، مانند متن، طراحی شده است. Transformer از مکانیسم [[توجه (Attention Mechanism)]] برای وزن‌د * **BERT-Base:** این مدل دارای 12 لایه Transformer، 768 واحد پنهان و 12 سر توجه است. ...
    13 KB (132 words) - 08:31, 6 May 2025
  • ...'''مدل‌های زبانی (Language Models):''' مدل‌هایی مانند [[RNN]]، [[LSTM]]، [[Transformer]] و [[BERT]] برای مدل‌سازی زبان و پیش‌بینی تو * [[Transformer]] ...
    13 KB (163 words) - 14:57, 15 May 2025
  • ...سال‌های اخیر توجه زیادی را به خود جلب کرده، مدل T5 (Text-to-Text Transfer Transformer) است. T5 توسط گوگل توسعه یافته و رویکردی یک� T5 یک مدل زبانی مبتنی بر معماری [[Transformer]] است که توسط گوگل در سال 2019 معرفی شد. آنچه ...
    14 KB (280 words) - 11:10, 6 May 2025
  • GPT-3 (Generative Pre-trained Transformer 3) یک [[مدل زبانی]] بزرگ است که توسط شرکت OpenAI GPT-3 بر اساس معماری [[Transformer]] ساخته شده است. این معماری به مدل اجازه می ...
    11 KB (145 words) - 19:08, 28 April 2025
  • * **مدل‌های مبتنی بر Transformer:** مدل‌های [[Transformer]]، مانند [[BERT]] و [[RoBERTa]]، به طور کامل بر اساس [[Transformer]] ...
    17 KB (115 words) - 14:02, 5 May 2025
  • ...coder Representations from Transformers)]] و [[GPT (Generative Pre-trained Transformer)]] به طور گسترده‌ای در تحلیل احساسات استف� [[GPT (Generative Pre-trained Transformer)]] ...
    14 KB (114 words) - 13:51, 5 May 2025
  • * **DETR (DEtection TRansformer):** این روش از معماری Transformer برای تشخیص اشیاء استفاده می‌کند و نیازی � ...
    15 KB (162 words) - 22:39, 6 May 2025
  • ...tations from Transformers):** BERT یک مدل زبانی قدرتمند است که از معماری [[Transformer]] استفاده می‌کند. BERT می‌تواند بردار کلما� ...[[فاصله]]، [[شبکه عصبی]]، [[مجموعه داده بزرگ]]، [[زیرکلمه‌ها]]، [[متن]]، [[Transformer]]، [[تشخیص احساسات]]، [[خلاصه‌سازی متن]]، [[ت ...
    12 KB (88 words) - 11:28, 6 May 2025
  • ...ردازش زبان طبیعی به دستاوردهای چشمگیری دست یافته است (مانند BERT و GPT). [[Transformer]] [[Transformer]] ...
    41 KB (222 words) - 08:33, 26 March 2025
  • * **Transformer:** یک شیء که داده‌ها را به شکل دیگری تبدیل ...
    11 KB (301 words) - 02:26, 7 May 2025
  • ...'شبکه‌های عصبی عمیق (Deep Neural Networks):''' شبکه‌های عصبی عمیق، مانند [[Transformer]]، می‌توانند برای یادگیری نمایش‌های پیچ� * [[Transformer]] ...
    13 KB (177 words) - 14:31, 15 May 2025
  • ...ورمر (Transformer-based Detectors):** شبکه‌هایی مانند [[DETR]] (DEtection TRansformer) از معماری ترانسفورمر برای تشخیص اشیا است ...
    15 KB (176 words) - 22:38, 6 May 2025
  • ...der Representations from Transformers) و '''GPT''' (Generative Pre-trained Transformer) استفاده می‌شوند. ...
    16 KB (331 words) - 14:07, 26 March 2025
  • ...ه‌ای دست یافته‌اند. [[مدل‌های زبانی بزرگ]] مانند BERT و GPT بر اساس معماری Transformer ساخته شده‌اند. ...
    14 KB (246 words) - 18:20, 16 May 2025
  • در سال‌های اخیر، با ظهور [[یادگیری عمیق]] و مدل‌های زبانی بزرگ ([[Transformer]]ها مانند [[BERT]]، [[GPT]]، و [[RoBERTa]])، دقت تحلیل � ...
    16 KB (114 words) - 01:39, 30 April 2025
  • ...ین روش به مدل اجازه می‌دهد تا روابط بین بخش‌های مختلف ورودی را درک کند. [[Transformer]]، یک معماری قدرتمند در NLP، به طور گسترده ا ...
    14 KB (199 words) - 09:11, 7 May 2025
View (previous 20 | ) (20 | 50 | 100 | 250 | 500)
Баннер