www.elecom4u.ir
هوش مصنوعي
هوش مصنوعی چیست؟
هوش مصنوعی (AI) شاخه وسیعی از علوم کامپیوتر است که به ساخت ماشینهای هوشمندی میپردازد که قادر به انجام وظایفی هستند که معمولاً به هوش انسانی نیاز دارند.
چهار نوع هوش مصنوعی چیست؟
ماشینهای واکنشی
حافظه محدود
نظریه ذهن
خودآگاهی
نمونههایی از هوش مصنوعی چیست؟
سیری، الکسا و دستیاران هوشمند دیگر
ماشینهای خودران
مشاوران روبو
رباتهای مکالمهای
فیلترهای اسپم ایمیل
توصیههای نتفلیکس

هوش مصنوعی چگونه کار میکند؟
کمتر از یک دهه پس از شکست دستگاه رمزگذاری انیگما و کمک به نیروهای متفقین برای پیروزی در جنگ جهانی دوم، ریاضیدان آلن تورینگ با یک سؤال ساده تاریخ را برای بار دوم تغییر داد: “آیا ماشینها میتوانند فکر کنند؟”
مقاله تورینگ “ماشینآلات محاسباتی و هوش” (1950) و آزمون تورینگ متعاقب آن، هدف و چشمانداز اساسی هوش مصنوعی را ایجاد کرد.
در هسته خود، هوش مصنوعی شاخهای از علوم کامپیوتر است که هدف آن پاسخ مثبت به سؤال تورینگ است. این تلاش برای تکرار یا شبیهسازی هوش انسانی در ماشینها است.
هدف گسترده هوش مصنوعی سؤالات و بحثهای زیادی را به وجود آورده است. به حدی که هیچ تعریف واحدی از این رشته بهطورکلی پذیرفتهنشده است.
محدودیت اصلی در تعریف هوش مصنوعی بهعنوان «ساخت ماشینهایی که هوشمند هستند» این است که واقعاً توضیح نمیدهد که هوش مصنوعی چیست؟ چه چیزی یک ماشین را هوشمند میکند؟ هوش مصنوعی یک علم میانرشتهای با رویکردهای متعدد است، اما پیشرفتها در یادگیری ماشینی و یادگیری عمیق، تقریباً در هر بخش از صنعت فناوری یک تغییر پارادایم ایجاد میکند.
نویسندگان استوارت راسل و پیتر نورویگ در کتاب درسی خود، پیشگامانِ هوش مصنوعی: رویکردی مدرن، با متحد کردن کار خود پیرامون موضوع عوامل هوشمند در ماشینها، به این سؤال میپردازند. با در نظر گرفتن این موضوع، هوش مصنوعی «مطالعه عواملی است که ادراکاتی را از محیط دریافت میکنند و بر اساس آن اعمالی را انجام میدهند». (راسل و نورویگ )
نورویگ و راسل در ادامه به بررسی چهار رویکرد مختلف میپردازند که از لحاظ تاریخی حوزه هوش مصنوعی را تعریف کردهاند:
انسان اندیشی
عقلانی فکر کردن
انسانی عمل کردن
منطقی عمل کردن
دو ایده اول مربوط به فرآیندهای فکری و استدلال است، در حالی که بقیه با رفتار سروکار دارند. نورویگ و راسل بهویژه بر عوامل منطقی تمرکز میکنند که برای دستیابی به بهترین نتیجه عمل میکنند، و خاطرنشان کردند: “همه مهارتهای موردنیاز برای آزمون تورینگ به عامل اجازه میدهد تا منطقی عمل کند.” (راسل و نورویگ 4).
پاتریک وینستون، استاد هوش مصنوعی و علوم کامپیوتر فورد در MIT، هوش مصنوعی را اینگونه تعریف میکند: «الگوریتمهایی که توسط محدودیتها فعال میشوند، در معرض نمایشهایی قرار میگیرند که از مدلهایی پشتیبانی میکنند که هدفشان حلقههایی است که تفکر، ادراک و عمل را به هم گره میزنند».
در حالی که این تعاریف ممکن است برای افراد معمولی انتزاعی به نظر برسند، اما به تمرکز این رشته بهعنوان حوزهای از علوم کامپیوتر کمک میکنند و طرحی برای تزریق ماشینها و برنامهها با یادگیری ماشین و سایر زیرمجموعههای هوش مصنوعی ارائه میدهند.
چهار نوع هوش مصنوعی
ماشینهای واکنشی
یک ماشین واکنشگر از ابتداییترین اصول هوش مصنوعی پیروی میکند و همانطور که از نامش پیداست، فقط میتواند از هوش خود برای درک و واکنش به دنیای مقابل استفاده کند. یک ماشین واکنشی نمیتواند یک حافظه را ذخیره کند و درنتیجه نمیتواند به تجربیات گذشته برای اطلاعرسانی تصمیمگیری در زمان واقعی تکیه کند.
درک جهان بهطور مستقیم به این معنی است که ماشینهای راکتیو فقط برای انجام تعداد محدودی از وظایف تخصصی طراحی شدهاند. با این حال، محدود کردن عمدی جهانبینی یک ماشین واکنشی، هیچ نوع معیاری برای کاهش هزینه نیست، و در عوض به این معنی است که این نوع هوش مصنوعی قابل اعتمادتر و قابل اعتمادتر خواهد بود – هر بار به همان روشی به محرکهای مشابه واکنش نشان میدهد.
یک نمونه معروف از یک ماشین واکنشی Deep Blue است که توسط IBM در دهه 1990 بهعنوان یک ابررایانه شطرنجباز طراحی شد و استاد بزرگ بینالمللی گری کاسپاروف را در یک بازی شکست داد. دیپ بلو فقط میتوانست مهرههای روی صفحه شطرنج را شناسایی کند و بداند که هر کدام از آنها بر اساس قوانین شطرنج چگونه حرکت میکنند، موقعیت فعلی هر مهره را تصدیق کند و منطقیترین حرکت را در آن لحظه تعیین کند. کامپیوتر حرکات احتمالی آتی حریف خود را دنبال نمیکرد یا سعی نمیکرد مهرههای خود را در موقعیت بهتری قرار دهد. هر چرخشی بهعنوان واقعیت خود، جدا از هر حرکت دیگری که از قبل انجام شده بود، تلقی میشد.
نمونه دیگری از ماشینهای واکنشی بازی، AlphaGo گوگل است. AlphaGo همچنین قادر به ارزیابی حرکتهای آینده نیست، اما برای ارزیابی پیشرفتهای بازی کنونی به شبکه عصبی خود متکی است و به آن برتری نسبت به Deep Blue در یک بازی پیچیدهتر میدهد. AlphaGo همچنین با شکست دادن قهرمان Go Lee Sedol در سال 2016 بر رقبای کلاس جهانی برتری داشت.
اگرچه از نظر دامنه محدود است و بهراحتی تغییر نمیکند، هوش مصنوعی ماشین واکنشی میتواند به سطحی از پیچیدگی دست یابد و زمانی که برای انجام وظایف تکرارپذیر ایجاد شود، قابلیت اطمینان را ارائه میدهد.
حافظه محدود
هوش مصنوعی حافظه محدود این توانایی را دارد که دادهها و پیشبینیهای قبلی را هنگام جمعآوری اطلاعات و سنجیدن تصمیمات بالقوه ذخیره کند – اساساً به دنبال سرنخهایی در مورد آنچه ممکن است در آینده رخ دهد، به گذشته نگاه میکند. هوش مصنوعی حافظه محدود پیچیدهتر است و امکانات بیشتری نسبت به ماشینهای واکنشی ارائه میدهد.
هوش مصنوعی حافظه محدود زمانی ایجاد میشود که یک تیم بهطور مداوم مدلی را در مورد نحوه تجزیهوتحلیل و استفاده از دادههای جدید آموزش دهد یا یک محیط هوش مصنوعی ساخته شود تا مدلها بهطور خودکار آموزش داده و تجدید شوند. هنگام استفاده از هوش مصنوعی حافظه محدود در یادگیری ماشین، شش مرحله باید دنبال شود: دادههای آموزشی باید ایجاد شود، مدل یادگیری ماشین باید ایجاد شود، مدل باید قادر به پیشبینی باشد، مدل باید قادر به دریافت بازخورد انسانی یا محیطی باشد. که بازخورد باید بهعنوان داده ذخیره شود، و این مراحل باید بهعنوان یک چرخه تکرار شوند.
سه مدل اصلی یادگیری ماشینی وجود دارد که از هوش مصنوعی حافظه محدود استفاده میکنند:
یادگیری تقویتی، که یاد میگیرد از طریق آزمون و خطای مکرر پیشبینیهای بهتری انجام دهد.
حافظه کوتاهمدت-بلندمدت (LSTM)، که از دادههای گذشته برای کمک به پیشبینی آیتم بعدی در یک دنباله استفاده میکند. LTSMها اطلاعات جدیدتر را هنگام پیشبینی و کاهش دادههای گذشته در گذشته مهمتر میدانند، اگرچه هنوز از آن برای نتیجهگیری استفاده میکنند.
شبکههای (E-GAN)، که در طول زمان تکامل مییابد و مسیرهای کمی تغییریافته را بر اساس تجربیات قبلی با هر تصمیم جدید کشف میکند. این مدل دائماً به دنبال مسیری بهتر است و از شبیهسازیها و آمار یا شانس برای پیشبینی نتایج در طول چرخه جهش تکاملی خود استفاده میکند.
نظریه ذهن
نظریه ذهن دقیقاً همین است: ما هنوز به تواناییهای فنی و علمی لازم برای رسیدن به این سطح هوش مصنوعی دست نیافتهایم.
این مفهوم بر اساس پیشفرض روانشناختی درک این موضوع است که موجودات زنده دیگر افکار و احساساتی دارند که بر رفتار شخص تأثیر میگذارند. از نظر ماشینهای هوش مصنوعی، این بدان معناست که هوش مصنوعی میتواند احساسات انسانها، حیوانات و سایر ماشینها را درک کند و از طریق خود اندیشی و تصمیمگیری کار کند و سپس از این اطلاعات برای تصمیمگیری خود استفاده کند. اساساً، ماشینها باید بتوانند مفهوم «ذهن»، نوسانات احساسات در تصمیمگیری و مجموعهای از مفاهیم روانشناختی دیگر را در زمان واقعی درک و پردازش کنند و یک رابطه دوطرفه بین افراد و هوش مصنوعی ایجاد کنند.
خودآگاهی
زمانی که تئوری ذهن در هوش مصنوعی ایجاد شود، در آینده نزدیک گام نهایی و بعدی برای خودآگاهی هوش مصنوعی خواهد بود. این نوع هوش مصنوعی دارای آگاهی در سطح انسان است و وجود خود در جهان و همچنین حضور و وضعیت عاطفی دیگران را درک میکند. این نوع هوش مصنوعی میتواند بفهمد که دیگران ممکن است به چه چیزهایی نیاز داشته باشند نهفقط بر اساس آنچه با آنها ارتباط برقرار میکنند، بلکه بر اساس نحوه ارتباط آنها.
خودآگاهی در هوش مصنوعی هم به محققان انسانی متکی است که مقدمات آگاهی را درک کنند و سپس یاد بگیرند که چگونه آن را تکرار کنند تا بتوان آن را در ماشینها ساخت.
موارد استفاده، مثالها و کاربردهای هوش مصنوعی

هوش مصنوعی چگونه استفاده میشود؟
جرمی آچین، مدیرعامل DataRobot در حالی که در سال 2017 در نمایشگاه هوش مصنوعی ژاپن سخنرانی میکرد، سخنرانی خود را با ارائه تعریف زیر از نحوه استفاده از هوش مصنوعی امروزی آغاز کرد:
“هوش مصنوعی یک سیستم کامپیوتری است که قادر به انجام وظایفی است که معمولاً به هوش انسانی نیاز دارند… بسیاری از این سیستمهای هوش مصنوعی با یادگیری ماشینی، برخی از آنها با یادگیری عمیق و برخی از آنها با چیزهای بسیار خستهکننده مانند قوانین قدرت میگیرند. “
https://builtin.com/artificial-intelligence/examples-ai-in-industry
هوش مصنوعی بهطورکلی در دودسته کلی قرار میگیرد:
هوش مصنوعی باریک: گاهی اوقات بهعنوان “هوش مصنوعی ضعیف” شناخته میشود، این نوع هوش مصنوعی در یک زمینه محدود عمل میکند و شبیهسازی هوش انسانی است. هوش مصنوعی باریک اغلب بر روی انجام یک کار واحد متمرکز است و در حالی که این ماشینها ممکن است هوشمند به نظر برسند، حتی از ابتداییترین هوش انسانی تحت محدودیتها و محدودیتهای بسیار بیشتری کار میکنند.
هوش عمومی مصنوعی (AGI): AGI که گاهی به آن “هوش مصنوعی قوی” نیز گفته میشود، نوعی هوش مصنوعی است که در فیلمها میبینیم، مانند روباتهای Westworld یا Data from Star Trek: The Next Generation. AGI یک ماشین با هوش عمومی است و مانند یک انسان، میتواند از این هوش برای حل هر مشکلی استفاده کند.
هوش مصنوعی باریک
هوش مصنوعی باریک در اطراف ما وجود دارد و بهراحتی موفقترین تحقق هوش مصنوعی تا به امروز است. با توجه به “آمادهسازی برای آینده هوش مصنوعی”، با تمرکز بر انجام وظایف خاص، Narrow AI پیشرفتهای متعددی را در دهه گذشته تجربه کرده است که “مزایای اجتماعی قابلتوجهی داشته و به سرزندگی اقتصادی کشور کمک کرده است.” گزارش سال 2016 که توسط دولت اوباما منتشر شد.
چند نمونه از Narrow AI عبارتاند از:
جستجوی گوگل
نرمافزار تشخیص تصویر
سیری، الکسا و دستیاران شخصی دیگر
ماشینهای خودران
واتسون IBM
یادگیری ماشینی و یادگیری عمیق
بخش عمدهای از Narrow AI توسط پیشرفتهایی در یادگیری ماشینی و یادگیری عمیق ایجاد میشود. درک تفاوت بین هوش مصنوعی، یادگیری ماشین و یادگیری عمیق میتواند گیجکننده باشد. فرانک چن، سرمایهدار مخاطرهآمیز، نمای کلی خوبی از نحوه تمایز بین آنها ارائه میدهد و خاطرنشان میکند:
هوش مصنوعی مجموعهای از الگوریتمها و هوش برای تقلید از هوش انسان است. یادگیری ماشینی یکی از آنهاست و یادگیری عمیق هم یکی از تکنیکهای پیشرفته یادگیری ماشینی است.
به زبان ساده، یادگیری ماشینی دادههای رایانه را تغذیه میکند و از تکنیکهای آماری استفاده میکند تا به آن کمک کند تا «بیاموزد» چگونه در یک کار به تدریج بهتر شود، بدون اینکه بهطور خاص برای آن کار برنامهریزی شده باشد، و نیازی به میلیونها خط کد نوشته شده را از بین میبرد. یادگیری ماشینی شامل یادگیری نظارت شده (با استفاده از مجموعه دادههای برچسب دار) و یادگیری بدون نظارت (با استفاده از مجموعه دادههای بدون برچسب) است.
یادگیری عمیق نوعی یادگیری ماشینی است که ورودیها را از طریق معماری شبکه عصبی الهام گرفته از بیولوژیکی اجرا میکند. شبکههای عصبی حاوی تعدادی لایه پنهان هستند که دادهها از طریق آنها پردازش میشوند و به ماشین اجازه میدهند تا در یادگیری خود “عمیق” پیش برود، اتصالات و وزن ورودی را برای بهترین نتایج ایجاد کند.
هوش مصنوعی عمومی
ایجاد ماشینی با هوش در سطح انسانی که میتواند برای هر کاری به کار رود هدف نهایی برای بسیاری از محققان هوش مصنوعی است، اما تلاش برای AGI با مشکل همراه بوده است.
جستجو برای “الگوریتم جهانی برای یادگیری و عمل در هر محیطی” (راسل و نورویگ 27) چیز جدیدی نیست، اما زمان دشواری اساساً ایجاد ماشینی با مجموعهای کامل از تواناییهای شناختی را کاهش نداده است.
AGI مدتهاست که الهامبخش داستانهای علمی تخیلی بوده است، که در آن روباتهای فوقهوشمند بر بشریت غلبه میکنند، اما کارشناسان معتقدند که این چیزی نیست که به این زودیها نگران آن باشیم.
تاريخچه

تاریخچه مختصری از هوش مصنوعی
رباتهای هوشمند و موجودات مصنوعی اولین بار در اسطورههای یونان باستان دوران باستان ظاهر شدند. توسعه قیاس و استفاده ارسطو از استدلال قیاسی لحظهای کلیدی در تلاش بشر برای درک هوش خود بود. در حالی که ریشهها طولانی و عمیق هستند، تاریخچه هوش مصنوعی همانطور که ما امروز به آن فکر میکنیم کمتر از یک قرن است. در ادامه نگاهی گذرا به برخی از مهمترین رویدادهای هوش مصنوعی آورده شده است.
دهه 1940
(1943) وارن مک کالو و والتر پیتس “حساب منطقی ایدههای ماندگار در فعالیت عصبی” را منتشر کردند. این مقاله اولین مدل ریاضی را برای ساخت یک شبکه عصبی پیشنهاد کرد.
(1949) دونالد هب در کتاب خود با نام سازمان رفتار: یک نظریه عصب روانشناختی، این نظریه را پیشنهاد میکند که مسیرهای عصبی از تجربیات ایجاد میشوند و هر چه بیشتر از نورونها استفاده شود، اتصالات بین نورونها قویتر میشود. یادگیری Hebbian همچنان یک مدل مهم در هوش مصنوعی است.
دهه 1950
(1950) آلن تورینگ «ماشینهای محاسباتی و هوش» را منتشر میکند و چیزی را پیشنهاد میکند که اکنون بهعنوان آزمون تورینگ شناخته میشود، روشی برای تعیین اینکه آیا یک ماشین هوشمند است.
(1950) ماروین مینسکی و دین ادموندز، دانشجویان کارشناسی هاروارد، SNARC، اولین کامپیوتر شبکه عصبی را ساختند.
(1950) کلود شانون مقاله “برنامه نویسی یک کامپیوتر برای بازی شطرنج” را منتشر میکند.
(1950) آیزاک آسیموف “سه قانون رباتیک” را منتشر میکند.
(1952) آرتور ساموئل یک برنامه خودآموز برای بازی چکرز توسعه میدهد.
(1954) آزمایش ترجمه ماشینی جورج تاون-IBM بهطور خودکار 60 جمله روسی را که با دقت انتخابشدهاند به انگلیسی ترجمه میکند.
(1956) عبارت هوش مصنوعی در “پروژه تحقیقاتی تابستانی دارتموث در مورد هوش مصنوعی” ابداع شد. کنفرانسی که توسط جان مک کارتی رهبری میشود، که دامنه و اهداف هوش مصنوعی را تعریف میکند، بهطور گستردهای بهعنوان تولد هوش مصنوعی آنگونه که امروز میشناسیم در نظر گرفته میشود.
(1956) آلن نیوول و هربرت سایمون نظریهپرداز منطق (LT)، اولین برنامه استدلال را نشان دادند.
(1958) جان مک کارتی زبان برنامه نویسی هوش مصنوعی Lisp را توسعه داد و مقاله “برنامههایی با عقل سلیم” را منتشر کرد. در این مقاله، مشاوره فرضی، یک سیستم هوش مصنوعی کامل با توانایی یادگیری از تجربیات به همان اندازه مؤثر، پیشنهاد شد.
(1959) آلن نیوول، هربرت سایمون و جی سی شاو برنامه حل مسئله عمومی (GPS) را توسعه دادند، برنامهای که برای تقلید از حل مسئله انسان طراحی شده است.
(1959) هربرت گلرنتر برنامه اثبات قضیه هندسه را توسعه داد.
(1959) آرتور ساموئل در IBM اصطلاح یادگیری ماشین را به کار میبرد.
(1959) جان مک کارتی و ماروین مینسکی پروژه هوش مصنوعی MIT را تأسیس کردند.
دهه 1960
(1963) جان مک کارتی آزمایشگاه هوش مصنوعی را در استنفورد راهاندازی کرد.
(1966) گزارش کمیته مشورتی پردازش خودکار زبان (ALPAC) توسط دولت ایالاتمتحده، عدم پیشرفت در تحقیقات ترجمه ماشینی، یک ابتکار بزرگ جنگ سرد با وعده ترجمه خودکار و فوری زبان روسی را شرح میدهد. گزارش ALPAC منجر به لغو تمام پروژههای MT با بودجه دولت میشود.
(1969) اولین سیستمهای خبره موفق در DENDRAL، یک برنامه XX، و MYCIN، طراحی شده برای تشخیص عفونتهای خون، در استانفورد ایجاد شدند.
دهه 1970
(1972) زبان برنامه نویسی منطقی PROLOG ایجاد شد.
(1973) “گزارش لایت هیل” که جزئیات ناامیدی در تحقیقات هوش مصنوعی را نشان میدهد، توسط دولت بریتانیا منتشر شد و منجر به کاهش شدید بودجه برای پروژههای هوش مصنوعی شد.
(1974-1980) ناامیدی از پیشرفت توسعه هوش مصنوعی منجر به کاهش عمده DARPA در کمکهزینه تحصیلی میشود. همراه با گزارش قبلی ALPAC و “گزارش لایت هیل” سال قبل، بودجه هوش مصنوعی خشک میشود و تحقیقات متوقف میشود. این دوره بهعنوان “اولین زمستان هوش مصنوعی” شناخته میشود.
دهه 1980
(1980) Digital Equipment Corporations R1 (همچنین بهعنوان XCON شناخته میشود)، اولین سیستم متخصص تجاری موفق را توسعه داد. R1 که برای پیکربندی سفارشها برای سیستمهای کامپیوتری جدید طراحی شده است، رونق سرمایهگذاری در سیستمهای خبره را آغاز میکند که تا بیشتر دهه دوام خواهد داشت و عملاً به اولین “زمستان هوش مصنوعی” پایان میدهد.
(1982) وزارت تجارت و صنعت بینالمللی ژاپن پروژه جاهطلبانه سیستمهای کامپیوتری نسل پنجم را راهاندازی کرد. هدف FGCS توسعه عملکرد ابررایانه مانند و پلتفرمی برای توسعه هوش مصنوعی است.
(1983) در پاسخ به FGCS ژاپن، دولت ایالاتمتحده ابتکار محاسبات استراتژیک را برای ارائه تحقیقات مالی دارپا در زمینه محاسبات پیشرفته و هوش مصنوعی راهاندازی کرد.
(1985) شرکتها سالانه بیش از یک میلیارد دلار برای سیستمهای خبره هزینه میکنند و کل صنعت معروف به بازار ماشینهای لیسپ برای حمایت از آنها به وجود میآید. شرکتهایی مانند Symbolics و Lisp Machines Inc. کامپیوترهای تخصصی را برای اجرا بر روی زبان برنامه نویسی هوش مصنوعی Lisp میسازند.
(1987-1993) با پیشرفت فناوری محاسبات، جایگزینهای ارزانتری پدیدار شد و بازار ماشینهای Lisp در سال 1987 سقوط کرد و “زمستان دوم هوش مصنوعی” را آغاز کرد. در طی این دوره، سیستمهای خبره برای نگهداری و بهروزرسانی بسیار گران بودند و درنهایت از بین رفتند.
دهه 1990
(1991) نیروهای ایالاتمتحده، DART، یک ابزار برنامهریزی و برنامهریزی لجستیک خودکار را در طول جنگ خلیجفارس مستقر کردند.
(1992) ژاپن پروژه FGCS را در سال 1992 خاتمه داد و دلیل آن شکست در دستیابی به اهداف بلندپروازانِ ای است که یک دهه پیش از آن مشخصشده بود.
(1993) دارپا به ابتکار محاسبات استراتژیک در سال 1993 پس از صرف نزدیک به 1 میلیارد دلار و بسیار کمتر از انتظارات، پایان میدهد.
(1997) دیپ بلو از IBM، گری کاسپاروف، قهرمان شطرنج جهان را شکست داد.
دهه 2000
(2005) استنلی، یک ماشین خودران، برنده چالش بزرگ دارپا شد.
(2005) ارتش ایالاتمتحده سرمایهگذاری در رباتهای خودمختار مانند “Big Dog” از Boston Dynamics و “PackBot” iRobot را آغاز کرد.
(2008) گوگل پیشرفتهایی در تشخیص گفتار ایجاد میکند و این ویژگی را در برنامهایفون خود معرفی میکند.
2010-2014
(2011) واتسون از IBM رقابت در خطر را شکست میدهد.
(2011) اپل سیری، یک دستیار مجازی مبتنی بر هوش مصنوعی را از طریق سیستمعامل iOS خود منتشر کرد.
(2012) Andrew Ng، بنیانگذار پروژه Google Brain Deep Learning، یک شبکه عصبی را با استفاده از الگوریتمهای یادگیری عمیق 10 میلیون ویدیوی یوتیوب را بهعنوان مجموعه آموزشی تغذیه میکند. شبکه عصبی یاد گرفت که گربه را بدون اینکه به او گفته شود گربه چیست، بشناسد، این امر آغازگر دوران پیشرفت شبکههای عصبی و بودجه یادگیری عمیق است.
(2014) گوگل اولین خودروی خودران را میسازد که آزمون رانندگی دولتی را گذرانده است.
(2014) الکسای آمازون، یک خانه مجازی منتشر شد.
2015-2021
(2016) AlphaGo از Google DeepMind، قهرمان جهان Go Lee Sedol را شکست داد. پیچیدگی بازی باستانی چینی بهعنوان یک مانع بزرگ برای رفع در هوش مصنوعی تلقی میشد.
(2016) اولین “شهروند ربات”، یک ربات انساننما به نام سوفیا، توسط Hanson Robotics ساخته شده است و قادر به تشخیص چهره، ارتباط کلامی و بیان چهره است.
(2018) گوگل موتور پردازش زبان طبیعی BERT را منتشر میکند که موانع در ترجمه و درک توسط برنامههای کاربردی یادگیری ماشین را کاهش میدهد.
(2018) Waymo سرویس Waymo One خود را راهاندازی میکند و به کاربران این امکان را میدهد که در کل منطقه شهری فونیکس درخواست دریافت یکی از وسایل نقلیه خودران این شرکت کنند.
(2020) بایدو الگوریتم LinearFold AI خود را برای تیمهای علمی و پزشکی که برای توسعه واکسنی در مراحل اولیه همهگیری SARS-CoV-2 کار میکنند، منتشر میکند. این الگوریتم قادر است توالی RNA ویروس را تنها در 27 ثانیه پیشبینی کند که 120 برابر سریعتر از روشهای دیگر است.