هوش مصنوعی

www.elecom4u.ir

هوش مصنوعي

هوش مصنوعی چیست؟

هوش مصنوعی (AI) شاخه وسیعی از علوم کامپیوتر است که به ساخت ماشین‌های هوشمندی می‌پردازد که قادر به انجام وظایفی هستند که معمولاً به هوش انسانی نیاز دارند.

چهار نوع هوش مصنوعی چیست؟

 ماشین‌های واکنشی

 حافظه محدود

 نظریه ذهن

 خودآگاهی

نمونه‌هایی از هوش مصنوعی چیست؟

 سیری، الکسا و دستیاران هوشمند دیگر

 ماشین‌های خودران

 مشاوران روبو

 ربات‌های مکالمه‌ای

 فیلترهای اسپم ایمیل

 توصیه‌های نتفلیکس

طراحی ماشین‌هایی برای شبیه‌سازی هوش انسانی، هدف اساسی هوش مصنوعی است

هوش مصنوعی چگونه کار می‌کند؟

کمتر از یک دهه پس از شکست دستگاه رمزگذاری انیگما و کمک به نیروهای متفقین برای پیروزی در جنگ جهانی دوم، ریاضیدان آلن تورینگ با یک سؤال ساده تاریخ را برای بار دوم تغییر داد: “آیا ماشین‌ها می‌توانند فکر کنند؟”

مقاله تورینگ “ماشین‌آلات محاسباتی و هوش” (1950) و آزمون تورینگ متعاقب آن، هدف و چشم‌انداز اساسی هوش مصنوعی را ایجاد کرد.

در هسته خود، هوش مصنوعی شاخه‌ای از علوم کامپیوتر است که هدف آن پاسخ مثبت به سؤال تورینگ است. این تلاش برای تکرار یا شبیه‌سازی هوش انسانی در ماشین‌ها است.

هدف گسترده هوش مصنوعی سؤالات و بحث‌های زیادی را به وجود آورده است. به حدی که هیچ تعریف واحدی از این رشته به‌طورکلی پذیرفته‌نشده است.

محدودیت اصلی در تعریف هوش مصنوعی به‌عنوان «ساخت ماشین‌هایی که هوشمند هستند» این است که واقعاً توضیح نمی‌دهد که هوش مصنوعی چیست؟ چه چیزی یک ماشین را هوشمند می‌کند؟ هوش مصنوعی یک علم میان‌رشته‌ای با رویکردهای متعدد است، اما پیشرفت‌ها در یادگیری ماشینی و یادگیری عمیق، تقریباً در هر بخش از صنعت فناوری یک تغییر پارادایم ایجاد می‌کند.

نویسندگان استوارت راسل و پیتر نورویگ در کتاب درسی خود، پیشگامانِ هوش مصنوعی: رویکردی مدرن، با متحد کردن کار خود پیرامون موضوع عوامل هوشمند در ماشین‌ها، به این سؤال می‌پردازند. با در نظر گرفتن این موضوع، هوش مصنوعی «مطالعه عواملی است که ادراکاتی را از محیط دریافت می‌کنند و بر اساس آن اعمالی را انجام می‌دهند». (راسل و نورویگ )

نورویگ و راسل در ادامه به بررسی چهار رویکرد مختلف می‌پردازند که از لحاظ تاریخی حوزه هوش مصنوعی را تعریف کرده‌اند:

 انسان اندیشی

 عقلانی فکر کردن

 انسانی عمل کردن

 منطقی عمل کردن

دو ایده اول مربوط به فرآیندهای فکری و استدلال است، در حالی که بقیه با رفتار سروکار دارند. نورویگ و راسل به‌ویژه بر عوامل منطقی تمرکز می‌کنند که برای دستیابی به بهترین نتیجه عمل می‌کنند، و خاطرنشان کردند: “همه مهارت‌های موردنیاز برای آزمون تورینگ به عامل اجازه می‌دهد تا منطقی عمل کند.” (راسل و نورویگ 4).

پاتریک وینستون، استاد هوش مصنوعی و علوم کامپیوتر فورد در MIT، هوش مصنوعی را این‌گونه تعریف می‌کند: «الگوریتم‌هایی که توسط محدودیت‌ها فعال می‌شوند، در معرض نمایش‌هایی قرار می‌گیرند که از مدل‌هایی پشتیبانی می‌کنند که هدفشان حلقه‌هایی است که تفکر، ادراک و عمل را به هم گره می‌زنند».

در حالی که این تعاریف ممکن است برای افراد معمولی انتزاعی به نظر برسند، اما به تمرکز این رشته به‌عنوان حوزه‌ای از علوم کامپیوتر کمک می‌کنند و طرحی برای تزریق ماشین‌ها و برنامه‌ها با یادگیری ماشین و سایر زیرمجموعه‌های هوش مصنوعی ارائه می‌دهند.

چهار نوع هوش مصنوعی

ماشین‌های واکنشی

یک ماشین واکنش‌گر از ابتدایی‌ترین اصول هوش مصنوعی پیروی می‌کند و همان‌طور که از نامش پیداست، فقط می‌تواند از هوش خود برای درک و واکنش به دنیای مقابل استفاده کند. یک ماشین واکنشی نمی‌تواند یک حافظه را ذخیره کند و درنتیجه نمی‌تواند به تجربیات گذشته برای اطلاع‌رسانی تصمیم‌گیری در زمان واقعی تکیه کند.

درک جهان به‌طور مستقیم به این معنی است که ماشین‌های راکتیو فقط برای انجام تعداد محدودی از وظایف تخصصی طراحی شده‌اند. با این حال، محدود کردن عمدی جهان‌بینی یک ماشین واکنشی، هیچ نوع معیاری برای کاهش هزینه نیست، و در عوض به این معنی است که این نوع هوش مصنوعی قابل اعتمادتر و قابل اعتمادتر خواهد بود – هر بار به همان روشی به محرک‌های مشابه واکنش نشان می‌دهد.

یک نمونه معروف از یک ماشین واکنشی Deep Blue است که توسط IBM در دهه 1990 به‌عنوان یک ابررایانه شطرنج‌باز طراحی شد و استاد بزرگ بین‌المللی گری کاسپاروف را در یک بازی شکست داد. دیپ بلو فقط می‌توانست مهره‌های روی صفحه شطرنج را شناسایی کند و بداند که هر کدام از آن‌ها بر اساس قوانین شطرنج چگونه حرکت می‌کنند، موقعیت فعلی هر مهره را تصدیق کند و منطقی‌ترین حرکت را در آن لحظه تعیین کند. کامپیوتر حرکات احتمالی آتی حریف خود را دنبال نمی‌کرد یا سعی نمی‌کرد مهره‌های خود را در موقعیت بهتری قرار دهد. هر چرخشی به‌عنوان واقعیت خود، جدا از هر حرکت دیگری که از قبل انجام شده بود، تلقی می‌شد.

نمونه دیگری از ماشین‌های واکنشی بازی، AlphaGo گوگل است. AlphaGo همچنین قادر به ارزیابی حرکت‌های آینده نیست، اما برای ارزیابی پیشرفت‌های بازی کنونی به شبکه عصبی خود متکی است و به آن برتری نسبت به Deep Blue در یک بازی پیچیده‌تر می‌دهد. AlphaGo همچنین با شکست دادن قهرمان Go Lee Sedol در سال 2016 بر رقبای کلاس جهانی برتری داشت.

اگرچه از نظر دامنه محدود است و به‌راحتی تغییر نمی‌کند، هوش مصنوعی ماشین واکنشی می‌تواند به سطحی از پیچیدگی دست یابد و زمانی که برای انجام وظایف تکرارپذیر ایجاد شود، قابلیت اطمینان را ارائه می‌دهد.

حافظه محدود

هوش مصنوعی حافظه محدود این توانایی را دارد که داده‌ها و پیش‌بینی‌های قبلی را هنگام جمع‌آوری اطلاعات و سنجیدن تصمیمات بالقوه ذخیره کند – اساساً به دنبال سرنخ‌هایی در مورد آنچه ممکن است در آینده رخ دهد، به گذشته نگاه می‌کند. هوش مصنوعی حافظه محدود پیچیده‌تر است و امکانات بیشتری نسبت به ماشین‌های واکنشی ارائه می‌دهد.

هوش مصنوعی حافظه محدود زمانی ایجاد می‌شود که یک تیم به‌طور مداوم مدلی را در مورد نحوه تجزیه‌وتحلیل و استفاده از داده‌های جدید آموزش دهد یا یک محیط هوش مصنوعی ساخته شود تا مدل‌ها به‌طور خودکار آموزش داده و تجدید شوند. هنگام استفاده از هوش مصنوعی حافظه محدود در یادگیری ماشین، شش مرحله باید دنبال شود: داده‌های آموزشی باید ایجاد شود، مدل یادگیری ماشین باید ایجاد شود، مدل باید قادر به پیش‌بینی باشد، مدل باید قادر به دریافت بازخورد انسانی یا محیطی باشد. که بازخورد باید به‌عنوان داده ذخیره شود، و این مراحل باید به‌عنوان یک چرخه تکرار شوند.

سه مدل اصلی یادگیری ماشینی وجود دارد که از هوش مصنوعی حافظه محدود استفاده می‌کنند:

 یادگیری تقویتی، که یاد می‌گیرد از طریق آزمون و خطای مکرر پیش‌بینی‌های بهتری انجام دهد.

 حافظه کوتاه‌مدت-بلندمدت (LSTM)، که از داده‌های گذشته برای کمک به پیش‌بینی آیتم بعدی در یک دنباله استفاده می‌کند. LTSMها اطلاعات جدیدتر را هنگام پیش‌بینی و کاهش داده‌های گذشته در گذشته مهم‌تر می‌دانند، اگرچه هنوز از آن برای نتیجه‌گیری استفاده می‌کنند.

 شبکه‌های (E-GAN)، که در طول زمان تکامل می‌یابد و مسیرهای کمی تغییریافته را بر اساس تجربیات قبلی با هر تصمیم جدید کشف می‌کند. این مدل دائماً به دنبال مسیری بهتر است و از شبیه‌سازی‌ها و آمار یا شانس برای پیش‌بینی نتایج در طول چرخه جهش تکاملی خود استفاده می‌کند.

نظریه ذهن

نظریه ذهن دقیقاً همین است: ما هنوز به توانایی‌های فنی و علمی لازم برای رسیدن به این سطح هوش مصنوعی دست نیافته‌ایم.

این مفهوم بر اساس پیش‌فرض روان‌شناختی درک این موضوع است که موجودات زنده دیگر افکار و احساساتی دارند که بر رفتار شخص تأثیر می‌گذارند. از نظر ماشین‌های هوش مصنوعی، این بدان معناست که هوش مصنوعی می‌تواند احساسات انسان‌ها، حیوانات و سایر ماشین‌ها را درک کند و از طریق خود اندیشی و تصمیم‌گیری کار کند و سپس از این اطلاعات برای تصمیم‌گیری خود استفاده کند. اساساً، ماشین‌ها باید بتوانند مفهوم «ذهن»، نوسانات احساسات در تصمیم‌گیری و مجموعه‌ای از مفاهیم روان‌شناختی دیگر را در زمان واقعی درک و پردازش کنند و یک رابطه دوطرفه بین افراد و هوش مصنوعی ایجاد کنند.

خودآگاهی

زمانی که تئوری ذهن در هوش مصنوعی ایجاد شود، در آینده نزدیک گام نهایی و بعدی برای خودآگاهی هوش مصنوعی خواهد بود. این نوع هوش مصنوعی دارای آگاهی در سطح انسان است و وجود خود در جهان و همچنین حضور و وضعیت عاطفی دیگران را درک می‌کند. این نوع هوش مصنوعی می‌تواند بفهمد که دیگران ممکن است به چه چیزهایی نیاز داشته باشند نه‌فقط بر اساس آنچه با آن‌ها ارتباط برقرار می‌کنند، بلکه بر اساس نحوه ارتباط آن‌ها.

خودآگاهی در هوش مصنوعی هم به محققان انسانی متکی است که مقدمات آگاهی را درک کنند و سپس یاد بگیرند که چگونه آن را تکرار کنند تا بتوان آن را در ماشین‌ها ساخت.

موارد استفاده، مثال‌ها و کاربردهای هوش مصنوعی

هوش مصنوعی کاربردهای زیادی دارد. مثال‌ها شامل همه‌چیز از آمازون الکسا گرفته تا خودروهای خودران است

هوش مصنوعی چگونه استفاده می‌شود؟

جرمی آچین، مدیرعامل DataRobot در حالی که در سال 2017 در نمایشگاه هوش مصنوعی ژاپن سخنرانی می‌کرد، سخنرانی خود را با ارائه تعریف زیر از نحوه استفاده از هوش مصنوعی امروزی آغاز کرد:

“هوش مصنوعی یک سیستم کامپیوتری است که قادر به انجام وظایفی است که معمولاً به هوش انسانی نیاز دارند… بسیاری از این سیستم‌های هوش مصنوعی با یادگیری ماشینی، برخی از آن‌ها با یادگیری عمیق و برخی از آن‌ها با چیزهای بسیار خسته‌کننده مانند قوانین قدرت می‌گیرند. “

https://builtin.com/artificial-intelligence/examples-ai-in-industry

هوش مصنوعی به‌طورکلی در دودسته کلی قرار می‌گیرد:

 هوش مصنوعی باریک: گاهی اوقات به‌عنوان “هوش مصنوعی ضعیف” شناخته می‌شود، این نوع هوش مصنوعی در یک زمینه محدود عمل می‌کند و شبیه‌سازی هوش انسانی است. هوش مصنوعی باریک اغلب بر روی انجام یک کار واحد متمرکز است و در حالی که این ماشین‌ها ممکن است هوشمند به نظر برسند، حتی از ابتدایی‌ترین هوش انسانی تحت محدودیت‌ها و محدودیت‌های بسیار بیشتری کار می‌کنند.

 هوش عمومی مصنوعی (AGI): AGI که ​​گاهی به آن “هوش مصنوعی قوی” نیز گفته می‌شود، نوعی هوش مصنوعی است که در فیلم‌ها می‌بینیم، مانند روبات‌های Westworld یا Data from Star Trek: The Next Generation. AGI یک ماشین با هوش عمومی است و مانند یک انسان، می‌تواند از این هوش برای حل هر مشکلی استفاده کند.

هوش مصنوعی باریک

هوش مصنوعی باریک در اطراف ما وجود دارد و به‌راحتی موفق‌ترین تحقق هوش مصنوعی تا به امروز است. با توجه به “آماده‌سازی برای آینده هوش مصنوعی”، با تمرکز بر انجام وظایف خاص، Narrow AI پیشرفت‌های متعددی را در دهه گذشته تجربه کرده است که “مزایای اجتماعی قابل‌توجهی داشته و به سرزندگی اقتصادی کشور کمک کرده است.” گزارش سال 2016 که توسط دولت اوباما منتشر شد.

چند نمونه از Narrow AI عبارت‌اند از:

 جستجوی گوگل

 نرم‌افزار تشخیص تصویر

 سیری، الکسا و دستیاران شخصی دیگر

 ماشین‌های خودران

 واتسون IBM

یادگیری ماشینی و یادگیری عمیق

بخش عمده‌ای از Narrow AI توسط پیشرفت‌هایی در یادگیری ماشینی و یادگیری عمیق ایجاد می‌شود. درک تفاوت بین هوش مصنوعی، یادگیری ماشین و یادگیری عمیق می‌تواند گیج‌کننده باشد. فرانک چن، سرمایه‌دار مخاطره‌آمیز، نمای کلی خوبی از نحوه تمایز بین آن‌ها ارائه می‌دهد و خاطرنشان می‌کند:

هوش مصنوعی مجموعه‌ای از الگوریتم‌ها و هوش برای تقلید از هوش انسان است. یادگیری ماشینی یکی از آن‌هاست و یادگیری عمیق هم یکی از تکنیک‌های پیشرفته یادگیری ماشینی است.

به زبان ساده، یادگیری ماشینی داده‌های رایانه را تغذیه می‌کند و از تکنیک‌های آماری استفاده می‌کند تا به آن کمک کند تا «بیاموزد» چگونه در یک کار به تدریج بهتر شود، بدون اینکه به‌طور خاص برای آن کار برنامه‌ریزی شده باشد، و نیازی به میلیون‌ها خط کد نوشته شده را از بین می‌برد. یادگیری ماشینی شامل یادگیری نظارت شده (با استفاده از مجموعه داده‌های برچسب دار) و یادگیری بدون نظارت (با استفاده از مجموعه داده‌های بدون برچسب) است.

یادگیری عمیق نوعی یادگیری ماشینی است که ورودی‌ها را از طریق معماری شبکه عصبی الهام گرفته از بیولوژیکی اجرا می‌کند. شبکه‌های عصبی حاوی تعدادی لایه پنهان هستند که داده‌ها از طریق آن‌ها پردازش می‌شوند و به ماشین اجازه می‌دهند تا در یادگیری خود “عمیق” پیش برود، اتصالات و وزن ورودی را برای بهترین نتایج ایجاد کند.

هوش مصنوعی عمومی

ایجاد ماشینی با هوش در سطح انسانی که می‌تواند برای هر کاری به کار رود هدف نهایی برای بسیاری از محققان هوش مصنوعی است، اما تلاش برای AGI با مشکل همراه بوده است.

جستجو برای “الگوریتم جهانی برای یادگیری و عمل در هر محیطی” (راسل و نورویگ 27) چیز جدیدی نیست، اما زمان دشواری اساساً ایجاد ماشینی با مجموعه‌ای کامل از توانایی‌های شناختی را کاهش نداده است.

AGI مدت‌هاست که الهام‌بخش داستان‌های علمی تخیلی بوده است، که در آن روبات‌های فوق‌هوشمند بر بشریت غلبه می‌کنند، اما کارشناسان معتقدند که این چیزی نیست که به این زودی‌ها نگران آن باشیم.

تاريخچه

تاریخچه هوش مصنوعی طولانی و به دهه 1940 بازمی‌گردد

تاریخچه مختصری از هوش مصنوعی

ربات‌های هوشمند و موجودات مصنوعی اولین بار در اسطوره‌های یونان باستان دوران باستان ظاهر شدند. توسعه قیاس و استفاده ارسطو از استدلال قیاسی لحظه‌ای کلیدی در تلاش بشر برای درک هوش خود بود. در حالی که ریشه‌ها طولانی و عمیق هستند، تاریخچه هوش مصنوعی همان‌طور که ما امروز به آن فکر می‌کنیم کمتر از یک قرن است. در ادامه نگاهی گذرا به برخی از مهم‌ترین رویدادهای هوش مصنوعی آورده شده است.

دهه 1940

 (1943) وارن مک کالو و والتر پیتس “حساب منطقی ایده‌های ماندگار در فعالیت عصبی” را منتشر کردند. این مقاله اولین مدل ریاضی را برای ساخت یک شبکه عصبی پیشنهاد کرد.

 (1949) دونالد هب در کتاب خود با نام سازمان رفتار: یک نظریه عصب روان‌شناختی، این نظریه را پیشنهاد می‌کند که مسیرهای عصبی از تجربیات ایجاد می‌شوند و هر چه بیشتر از نورون‌ها استفاده شود، اتصالات بین نورون‌ها قوی‌تر می‌شود. یادگیری Hebbian همچنان یک مدل مهم در هوش مصنوعی است.

دهه 1950

 (1950) آلن تورینگ «ماشین‌های محاسباتی و هوش» را منتشر می‌کند و چیزی را پیشنهاد می‌کند که اکنون به‌عنوان آزمون تورینگ شناخته می‌شود، روشی برای تعیین اینکه آیا یک ماشین هوشمند است.

 (1950) ماروین مینسکی و دین ادموندز، دانشجویان کارشناسی هاروارد، SNARC، اولین کامپیوتر شبکه عصبی را ساختند.

 (1950) کلود شانون مقاله “برنامه نویسی یک کامپیوتر برای بازی شطرنج” را منتشر می‌کند.

 (1950) آیزاک آسیموف “سه قانون رباتیک” را منتشر می‌کند.

 (1952) آرتور ساموئل یک برنامه خودآموز برای بازی چکرز توسعه می‌دهد.

 (1954) آزمایش ترجمه ماشینی جورج تاون-IBM به‌طور خودکار 60 جمله روسی را که با دقت انتخاب‌شده‌اند به انگلیسی ترجمه می‌کند.

 (1956) عبارت هوش مصنوعی در “پروژه تحقیقاتی تابستانی دارتموث در مورد هوش مصنوعی” ابداع شد. کنفرانسی که توسط جان مک کارتی رهبری می‌شود، که دامنه و اهداف هوش مصنوعی را تعریف می‌کند، به‌طور گسترده‌ای به‌عنوان تولد هوش مصنوعی آن‌گونه که امروز می‌شناسیم در نظر گرفته می‌شود.

 (1956) آلن نیوول و هربرت سایمون نظریه‌پرداز منطق (LT)، اولین برنامه استدلال را نشان دادند.

 (1958) جان مک کارتی زبان برنامه نویسی هوش مصنوعی Lisp را توسعه داد و مقاله “برنامه‌هایی با عقل سلیم” را منتشر کرد. در این مقاله، مشاوره فرضی، یک سیستم هوش مصنوعی کامل با توانایی یادگیری از تجربیات به همان اندازه مؤثر، پیشنهاد شد.

 (1959) آلن نیوول، هربرت سایمون و جی سی شاو برنامه حل مسئله عمومی (GPS) را توسعه دادند، برنامه‌ای که برای تقلید از حل مسئله انسان طراحی شده است.

 (1959) هربرت گلرنتر برنامه اثبات قضیه هندسه را توسعه داد.

 (1959) آرتور ساموئل در IBM اصطلاح یادگیری ماشین را به کار می‌برد.

 (1959) جان مک کارتی و ماروین مینسکی پروژه هوش مصنوعی MIT را تأسیس کردند.

دهه 1960

 (1963) جان مک کارتی آزمایشگاه هوش مصنوعی را در استنفورد راه‌اندازی کرد.

 (1966) گزارش کمیته مشورتی پردازش خودکار زبان (ALPAC) توسط دولت ایالات‌متحده، عدم پیشرفت در تحقیقات ترجمه ماشینی، یک ابتکار بزرگ جنگ سرد با وعده ترجمه خودکار و فوری زبان روسی را شرح می‌دهد. گزارش ALPAC منجر به لغو تمام پروژه‌های MT با بودجه دولت می‌شود.

 (1969) اولین سیستم‌های خبره موفق در DENDRAL، یک برنامه XX، و MYCIN، طراحی شده برای تشخیص عفونت‌های خون، در استانفورد ایجاد شدند.

دهه 1970

 (1972) زبان برنامه نویسی منطقی PROLOG ایجاد شد.

 (1973) “گزارش لایت هیل” که جزئیات ناامیدی در تحقیقات هوش مصنوعی را نشان می‌دهد، توسط دولت بریتانیا منتشر شد و منجر به کاهش شدید بودجه برای پروژه‌های هوش مصنوعی شد.

 (1974-1980) ناامیدی از پیشرفت توسعه هوش مصنوعی منجر به کاهش عمده DARPA در کمک‌هزینه تحصیلی می‌شود. همراه با گزارش قبلی ALPAC و “گزارش لایت هیل” سال قبل، بودجه هوش مصنوعی خشک می‌شود و تحقیقات متوقف می‌شود. این دوره به‌عنوان “اولین زمستان هوش مصنوعی” شناخته می‌شود.

دهه 1980

 (1980) Digital Equipment Corporations R1 (همچنین به‌عنوان XCON شناخته می‌شود)، اولین سیستم متخصص تجاری موفق را توسعه داد. R1 که برای پیکربندی سفارش‌ها برای سیستم‌های کامپیوتری جدید طراحی شده است، رونق سرمایه‌گذاری در سیستم‌های خبره را آغاز می‌کند که تا بیشتر دهه دوام خواهد داشت و عملاً به اولین “زمستان هوش مصنوعی” پایان می‌دهد.

 (1982) وزارت تجارت و صنعت بین‌المللی ژاپن پروژه جاه‌طلبانه سیستم‌های کامپیوتری نسل پنجم را راه‌اندازی کرد. هدف FGCS توسعه عملکرد ابررایانه مانند و پلتفرمی برای توسعه هوش مصنوعی است.

 (1983) در پاسخ به FGCS ژاپن، دولت ایالات‌متحده ابتکار محاسبات استراتژیک را برای ارائه تحقیقات مالی دارپا در زمینه محاسبات پیشرفته و هوش مصنوعی راه‌اندازی کرد.

 (1985) شرکت‌ها سالانه بیش از یک میلیارد دلار برای سیستم‌های خبره هزینه می‌کنند و کل صنعت معروف به بازار ماشین‌های لیسپ برای حمایت از آن‌ها به وجود می‌آید. شرکت‌هایی مانند Symbolics و Lisp Machines Inc. کامپیوترهای تخصصی را برای اجرا بر روی زبان برنامه نویسی هوش مصنوعی Lisp می‌سازند.

 (1987-1993) با پیشرفت فناوری محاسبات، جایگزین‌های ارزان‌تری پدیدار شد و بازار ماشین‌های Lisp در سال 1987 سقوط کرد و “زمستان دوم هوش مصنوعی” را آغاز کرد. در طی این دوره، سیستم‌های خبره برای نگهداری و به‌روزرسانی بسیار گران بودند و درنهایت از بین رفتند.

دهه 1990

 (1991) نیروهای ایالات‌متحده، DART، یک ابزار برنامه‌ریزی و برنامه‌ریزی لجستیک خودکار را در طول جنگ خلیج‌فارس مستقر کردند.

 (1992) ژاپن پروژه FGCS را در سال 1992 خاتمه داد و دلیل آن شکست در دستیابی به اهداف بلندپروازانِ ای است که یک دهه پیش از آن مشخص‌شده بود.

 (1993) دارپا به ابتکار محاسبات استراتژیک در سال 1993 پس از صرف نزدیک به 1 میلیارد دلار و بسیار کمتر از انتظارات، پایان می‌دهد.

 (1997) دیپ بلو از IBM، گری کاسپاروف، قهرمان شطرنج جهان را شکست داد.

دهه 2000

 (2005) استنلی، یک ماشین خودران، برنده چالش بزرگ دارپا شد.

 (2005) ارتش ایالات‌متحده سرمایه‌گذاری در ربات‌های خودمختار مانند “Big Dog” از Boston Dynamics و “PackBot” iRobot را آغاز کرد.

 (2008) گوگل پیشرفت‌هایی در تشخیص گفتار ایجاد می‌کند و این ویژگی را در برنامه‌ایفون خود معرفی می‌کند.

2010-2014

 (2011) واتسون از IBM رقابت در خطر را شکست می‌دهد.

 (2011) اپل سیری، یک دستیار مجازی مبتنی بر هوش مصنوعی را از طریق سیستم‌عامل iOS خود منتشر کرد.

 (2012) Andrew Ng، بنیان‌گذار پروژه Google Brain Deep Learning، یک شبکه عصبی را با استفاده از الگوریتم‌های یادگیری عمیق 10 میلیون ویدیوی یوتیوب را به‌عنوان مجموعه آموزشی تغذیه می‌کند. شبکه عصبی یاد گرفت که گربه را بدون اینکه به او گفته شود گربه چیست، بشناسد، این امر آغازگر دوران پیشرفت شبکه‌های عصبی و بودجه یادگیری عمیق است.

 (2014) گوگل اولین خودروی خودران را می‌سازد که آزمون رانندگی دولتی را گذرانده است.

 (2014) الکسای آمازون، یک خانه مجازی منتشر شد.

2015-2021

 (2016) AlphaGo از Google DeepMind، قهرمان جهان Go Lee Sedol را شکست داد. پیچیدگی بازی باستانی چینی به‌عنوان یک مانع بزرگ برای رفع در هوش مصنوعی تلقی می‌شد.

 (2016) اولین “شهروند ربات”، یک ربات انسان‌نما به نام سوفیا، توسط Hanson Robotics ساخته شده است و قادر به تشخیص چهره، ارتباط کلامی و بیان چهره است.

 (2018) گوگل موتور پردازش زبان طبیعی BERT را منتشر می‌کند که موانع در ترجمه و درک توسط برنامه‌های کاربردی یادگیری ماشین را کاهش می‌دهد.

 (2018) Waymo سرویس Waymo One خود را راه‌اندازی می‌کند و به کاربران این امکان را می‌دهد که در کل منطقه شهری فونیکس درخواست دریافت یکی از وسایل نقلیه خودران این شرکت کنند.

 (2020) بایدو الگوریتم LinearFold AI خود را برای تیم‌های علمی و پزشکی که برای توسعه واکسنی در مراحل اولیه همه‌گیری SARS-CoV-2 کار می‌کنند، منتشر می‌کند. این الگوریتم قادر است توالی RNA ویروس را تنها در 27 ثانیه پیش‌بینی کند که 120 برابر سریع‌تر از روش‌های دیگر است.

برای امتیاز به این نوشته کلیک کنید!
[کل: 6 میانگین: 5]

دیدگاهتان را بنویسید