کاربرد هوش مصنوعی (AI)، توانایی یک کامپیوتر دیجیتال یا یک ربات کنترلشده با کامپیوتر برای انجام وظایفی است که معمولاً با موجودات هوشمند مرتبط هستند. این اصطلاح غالباً برای پروژهی توسعهی سیستمهایی به کار میرود که به فرایندهای فکری و ذهنی انسان مجهزند، مانند توانایی استدلال، کشف معنی، تعمیم دادن، یا یادگیری از تجربهی گذشته. از زمان توسعهی کامپیوترهای دیجیتال در دههی ۱۹۴۰، آنها برای اجرای وظایف بسیار پیچیده – مانند کشف اثباتهای قضیههای ریاضی یا بازی شطرنج – با مهارت بالا برنامهریزی شدهاند.
علیرغم پیشرفتهای مستمر در سرعت پردازش کامپیوتر و ظرفیت حافظه، هنوز برنامهای وجود ندارد که بتواند از نظر انعطافپذیری کامل انسانی در دامنههای گستردهتر یا در وظایفی که به دانش روزمره نیاز دارند، برابری کند. از سوی دیگر، برخی برنامهها در اجرای وظایف خاصی به سطح عملکرد کارشناسان و متخصصان انسانی رسیدهاند، به طوری که کاربرد هوش مصنوعی به معنای محدود آن در حوزههای متنوعی مانند تشخیص پزشکی، موتورهای جستجوی کامپیوتری، تشخیص صدا یا دستخط، و چتباتها یافت میشود.

هوش چیست؟
تمام رفتارهای انسان، جز سادهترین آنها، به هوش نسبت داده میشود، در حالی که حتی پیچیدهترین رفتار حشرات معمولاً نشانهای از هوش در نظر گرفته نمیشود. تفاوت در چیست؟ رفتار زنبور حفار (Sphex ichneumoneus) را در نظر بگیرید. هنگامی که زنبور ماده با غذا به لانهاش باز میگردد، ابتدا آن را روی آستانه قرار میدهد، ورودی لانه را برای نبود متجاوزین بررسی میکند، و تنها پس از اطمینان از خلوت بودن فضا، غذا را به داخل میبرد. ماهیت واقعی رفتار غریزی زنبور زمانی آشکار میشود که غذا در حین حضور او در داخل، چند اینچ از ورودی لانه جابهجا شود: پس از بیرون آمدن، او کل روند را هر چند بار که غذا جابهجا شود، تکرار خواهد کرد. هوش – که به وضوح در مورد زنبور غایب است – باید شامل توانایی سازگاری با شرایط جدید باشد.
روانشناسان عموماً هوش انسانی را نه با یک ویژگی، بلکه با ترکیبی از تواناییهای متنوع بسیار توصیف میکنند. تحقیقات در هوش مصنوعی عمدتاً بر مؤلفههای زیر متمرکز بوده است: یادگیری، استدلال، حل مسئله، درک و دریافت (ادراک)، و استفاده از زبان.
یادگیری در کاربردهای هوش مصنوعی
تعدادی از اشکال مختلف یادگیری در کاربردهای هوش مصنوعی وجود دارد. سادهترین آن یادگیری از طریق آزمون و خطاست. به عنوان مثال، یک برنامه کامپیوتری ساده برای حل مسائل شطرنج «مات در یک حرکت» ممکن است حرکات را به صورت تصادفی امتحان کند تا زمانی که مات پیدا شود. برنامه میتواند راهحل را به همراه وضعیت ذخیره کند تا دفعهی بعد که کامپیوتر با همان وضعیت مواجه شد، راهحل را به خاطر آورد. این به خاطر سپردن سادهی موارد و رویههای فردی – که به عنوان یادگیری طوطیوار شناخته میشود – نسبتاً آسان بر روی کامپیوتر پیادهسازی میشود. چالشبرانگیزتر، مسئلهی پیادهسازی چیزی است که تعمیم (Generalization) نامیده میشود.
تعمیم شامل اعمال تجربهی گذشته در موقعیتهای جدید مشابه است. به عنوان مثال، برنامهای که زمان گذشتهی فعلهای باقاعدهی انگلیسی را طوطیوار یاد میگیرد، قادر نخواهد بود زمان گذشتهی کلمهای مانند jump را تولید کند مگر اینکه قبلاً jumped به آن ارائه شده باشد، در حالی که برنامهای که قادر به تعمیم است، میتواند قانون «اضافه کردن ed-» را برای فعلهای باقاعدهای که به یک صامت ختم میشوند یاد بگیرد و بنابراین زمان گذشتهی jump را بر اساس تجربه با فعلهای مشابه شکل دهد.
استدلال
استدلال کردن به معنای استخراج استنتاجهای مناسب با موقعیت است. استنتاجها به دو دستهی استنتاج قیاسی (Deductive) یا استقرایی (Inductive) طبقهبندی میشوند. مثالی از اولی این است: «فرد باید یا در موزه باشد یا در کافه. او در کافه نیست؛ بنابراین، او در موزه است»، و مثالی از دومی این است: «تصادفات قبلی از این نوع ناشی از نقص ابزار بودند. این تصادف از همان نوع است؛ بنابراین، احتمالاً ناشی از نقص ابزار بوده است.» مهمترین تفاوت بین این اشکال استدلال این است که در مورد قیاسی، حقیقت مقدمات، حقیقت نتیجهگیری را تضمین میکند، در حالی که در مورد استقرایی، حقیقت مقدمات از نتیجهگیری پشتیبانی میکند بدون اینکه تضمین مطلق ارائه دهد.
استدلال استقرایی در علم رایج است، جایی که دادهها جمعآوری میشوند و مدلهای آزمایشی برای توصیف و پیشبینی رفتار آینده توسعه مییابند – تا زمانی که ظهور دادههای غیرعادی، مدل را مجبور به بازبینی کند. استدلال قیاسی در ریاضیات و منطق رایج است، جایی که ساختارهای استادانهای از قضیههای غیرقابل انکار از مجموعهی کوچکی از اصول اولیه و قوانین ساخته میشوند.
در برنامهریزی کامپیوترها برای استخراج استنتاجها موفقیت چشمگیری حاصل شده است. با این حال، استدلال واقعی چیزی بیش از صرف استخراج استنتاج است: شامل استخراج استنتاجهای مرتبط با حل مسئلهی خاص است. این یکی از سختترین مشکلاتی است که هوش مصنوعی با آن مواجه است.
حل مسئله
حل مسئله، به ویژه در هوش مصنوعی، میتواند به عنوان یک جستجوی سیستماتیک در میان طیفی از اقدامات ممکن برای دستیابی به یک هدف یا راهحل از پیش تعریفشده مشخص شود. روشهای حل مسئله به هدف-خاص و هدف-عمومی تقسیم میشوند. یک روش هدف-خاص برای یک مسئلهی خاص طراحی شده و اغلب از ویژگیهای بسیار خاص موقعیتی که مسئله در آن نهفته است، بهره میبرد. در مقابل، یک روش هدف-عمومی برای طیف گستردهای از مسائل قابل اعمال است. یک تکنیک هدف-عمومی که در هوش مصنوعی استفاده میشود، تحلیل وسیله-هدف (means-end analysis) است – یک کاهش گام به گام یا تدریجی در تفاوت بین وضعیت فعلی و هدف نهایی. برنامه اقدامات را از لیستی از وسایل انتخاب میکند – که در مورد یک ربات ساده ممکن است شامل PICKUP (برداشتن)، PUTDOWN (گذاشتن)، MOVEFORWARD (حرکت به جلو)، MOVEBACK (حرکت به عقب)، MOVELEFT (حرکت به چپ)، و MOVERIGHT (حرکت به راست) باشد – تا زمانی که به هدف برسد.
بسیاری از مسائل متنوع توسط برنامههای هوش مصنوعی حل شدهاند. برخی از مثالها عبارتند از یافتن حرکت (یا دنبالهای از حرکات) برنده در یک بازی رومیزی، ابداع اثباتهای ریاضی، و دستکاری «اشیاء مجازی» در یک دنیای کامپیوتری.

ادراک (Perception)
در ادراک، محیط توسط اندامهای حسی مختلف، واقعی یا مصنوعی، اسکن میشود و صحنه به اشیاء مجزا در روابط فضایی مختلف تجزیه میشود. تحلیل به دلیل این واقعیت پیچیده است که یک شیء ممکن است بسته به زاویهای که از آن دیده میشود، جهت و شدت نورپردازی در صحنه، و میزان تضاد آن شیء با محیط اطراف، متفاوت به نظر برسد. در حال حاضر، ادراک مصنوعی به اندازهی کافی پیشرفته است تا حسگرهای نوری را قادر سازد تا افراد را شناسایی کنند و وسایل نقلیهی خودمختار بتوانند با سرعت متوسط در جادههای باز رانندگی کنند. [تصویر تشخیص چهره سهبعدی]
زبان
زبان یک سیستم نشانهای است که بر اساس قرارداد دارای معناست. از این نظر، زبان لزوماً به کلمات گفتاری محدود نمیشود. به عنوان مثال، علائم راهنمایی و رانندگی یک مینی-زبان را تشکیل میدهند، زیرا این یک قرارداد است که ⚠ به معنای «خطر در پیش است» در برخی کشورهاست. ویژگی متمایز زبانها این است که واحدهای زبانی بر اساس قرارداد دارای معنا هستند، و معنای زبانی بسیار متفاوت از چیزی است که معنای طبیعی نامیده میشود، که در عباراتی مانند «آن ابرها به معنای باران هستند» و «افت فشار به معنای نقص در سوپاپ است» مثال زده میشود.
یک ویژگی مهم زبانهای کامل انسانی – در تضاد با صداهای پرندگان و علائم راهنمایی و رانندگی – مولد بودن آنهاست. یک زبان مولد میتواند انواع نامحدودی از جملات را فرموله کند.
مدلهای زبان بزرگ مانند ChatGPT میتوانند به سؤالات و اظهارات با زبان انسانی روان پاسخ دهند. اگرچه چنین مدلهایی در واقع زبان را مانند انسانها درک نمیکنند، بلکه صرفاً کلماتی را انتخاب میکنند که احتمالش از بقیه بیشتر است، اما به مرحلهای رسیدهاند که تسلط آنها بر یک زبان از تسلط یک انسان عادی قابل تشخیص نیست. پس، اگر حتی یک کامپیوتر که مانند یک فرد بومی از زبان استفاده میکند، به عنوان دارای درک واقعی شناخته نشود، چه چیزی در درک واقعی دخیل است؟ هیچ پاسخ مورد توافق جهانی برای این پرسش دشوار وجود ندارد.
روشها و اهداف در کاربرد هوش مصنوعی
تحقیقات هوش مصنوعی از دو روش متمایز و تا حدودی رقیب پیروی میکند: رویکرد نمادین (یا «بالا به پایین») و رویکرد پیوندگرا (یا «پایین به بالا»). رویکرد بالا به پایین به دنبال تکثیر هوش از طریق تحلیل شناخت مستقل از ساختار بیولوژیکی مغز است، بر اساس پردازش نمادها – از این رو برچسب نمادین را دارد. از سوی دیگر، رویکرد پایین به بالا شامل ایجاد شبکههای عصبی مصنوعی در تقلید از ساختار مغز است – از این رو برچسب پیوندگرا را دارد.
برای نشان دادن تفاوت بین این رویکردها، وظیفهی ساختن سیستمی را در نظر بگیرید که مجهز به اسکنر نوری است و حروف الفبا را تشخیص میدهد. رویکرد پایین به بالا معمولاً شامل آموزش یک شبکهی عصبی مصنوعی با ارائهی حروف به آن به صورت تک به تک است و به تدریج عملکرد را از طریق «تنظیم» شبکه بهبود میبخشد. (تنظیم، پاسخگویی مسیرهای عصبی مختلف به محرکهای مختلف را تنظیم میکند.) در مقابل، رویکرد بالا به پایین معمولاً شامل نوشتن یک برنامهی کامپیوتری است که هر حرف را با توصیفات هندسی مقایسه میکند. به بیان ساده، فعالیتهای عصبی اساس رویکرد پایین به بالا هستند، در حالی که توصیفات نمادین اساس رویکرد بالا به پایین هستند.
در کتاب مبانی یادگیری (۱۹۳۲)، ادوارد ثورندایک، یک روانشناس در دانشگاه کلمبیا، نیویورک، برای اولین بار پیشنهاد کرد که یادگیری انسان شامل برخی خواص ناشناخته از اتصالات بین نورونها در مغز است. در کتاب سازمان رفتار (۱۹۴۹)، دونالد هب، یک روانشناس در دانشگاه مکگیل، مونترال، پیشنهاد کرد که یادگیری به طور خاص شامل تقویت الگوهای خاصی از فعالیت عصبی با افزایش احتمال (وزن) شلیک نورون القا شده بین اتصالات مرتبط است.
در سال ۱۹۵۷، دو طرفدار پرشور هوش مصنوعی نمادین – آلن نیوول، محقق در شرکت رند، سانتا مونیکا، کالیفرنیا، و هربرت سایمون، یک روانشناس و دانشمند کامپیوتر در دانشگاه کارنگی ملون، پیتسبرگ – رویکرد بالا به پایین را در آنچه فرضیهی سیستم نماد فیزیکی نامیدند، خلاصه کردند. این فرضیه بیان میکند که پردازش ساختارهای نمادها اصولاً برای تولید هوش مصنوعی در یک کامپیوتر دیجیتال کافی است و علاوه بر این، هوش انسانی نتیجهی همان نوع دستکاریهای نمادین است.
در طول دهههای ۱۹۵۰ و ۶۰، رویکردهای بالا به پایین و پایین به بالا به طور همزمان دنبال شدند، و هر دو به نتایج قابل توجهی، هرچند محدود، دست یافتند. با این حال، در طول دههی ۱۹۷۰، هوش مصنوعی پایین به بالا نادیده گرفته شد و تا دههی ۱۹۸۰ بود که این رویکرد دوباره برجسته شد. امروزه هر دو رویکرد دنبال میشوند، و هر دو به عنوان مواجه با مشکلاتی شناخته میشوند. تکنیکهای نمادین در قلمروهای سادهشده کار میکنند اما معمولاً در مواجهه با دنیای واقعی از کار میافتند؛ در همین حال، محققان پایین به بالا نتوانستهاند سیستمهای عصبی حتی سادهترین موجودات زنده را تکرار کنند. Caenorhabditis elegans، کرم بسیار مورد مطالعه، تقریباً ۳۰۰ نورون دارد که الگوی اتصالات داخلی آنها کاملاً شناخته شده است. با این حال، مدلهای پیوندگرا نتوانستهاند حتی این کرم را تقلید کنند. واضح است که نورونهای تئوری پیوندگرا، سادهسازیهای بسیار ناخالصی از چیز واقعی هستند.
هوش عمومی مصنوعی (AGI)، هوش مصنوعی کاربردی، و شبیهسازی شناختی
تحقیقات هوش مصنوعی با به کارگیری روشهای ذکر شده در بالا، تلاش میکند تا به یکی از سه هدف زیر دست یابد: هوش عمومی مصنوعی (AGI)، هوش مصنوعی کاربردی، یا شبیهسازی شناختی.
هوش عمومی مصنوعی (که هوش مصنوعی قوی نیز نامیده میشود) هدف ساخت ماشینهایی را دارد که فکر میکنند. جاهطلبی نهایی هوش عمومی مصنوعی تولید ماشینی است که توانایی فکری کلی آن از یک انسان قابل تشخیص نباشد. تا به امروز، پیشرفت ناهموار بوده است. با وجود پیشرفتها در مدلهای زبان بزرگ، بحثبرانگیز است که آیا هوش عمومی مصنوعی میتواند از مدلهای حتی قدرتمندتر پدید آید یا رویکرد کاملاً متفاوتی مورد نیاز است. در واقع، برخی از محققانی که در دو شاخهی دیگر هوش مصنوعی کار میکنند، هوش عمومی مصنوعی را ارزش پیگیری نمیدانند.
هوش مصنوعی کاربردی، که به عنوان پردازش اطلاعات پیشرفته نیز شناخته میشود، هدف تولید سیستمهای «هوشمند» با قابلیت تجاری را دارد – برای مثال، سیستمهای «خبرهی» تشخیص پزشکی و سیستمهای معاملات سهام. هوش مصنوعی کاربردی موفقیت قابل توجهی داشته است.
در شبیهسازی شناختی، کامپیوترها برای آزمایش تئوریها در مورد نحوهی عملکرد ذهن انسان استفاده میشوند – برای مثال، تئوریهایی در مورد نحوهی شناسایی چهرهها یا یادآوری خاطرات توسط افراد. شبیهسازی شناختی در حال حاضر یک ابزار قدرتمند در هر دو زمینهی علوم اعصاب و روانشناسی شناختی است.

کاربرد هوش مصنوعی در وسایل نقلیهی خودران
یادگیری ماشینی و هوش مصنوعی عناصر اساسی سیستمهای وسایل نقلیهی خودران هستند. وسایل نقلیه بر روی دادههای پیچیده (مانند حرکت سایر وسایل نقلیه، علائم راهنمایی و رانندگی) با یادگیری ماشینی آموزش داده میشوند، که به بهبود الگوریتمهایی که تحت آن عمل میکنند کمک میکند. هوش مصنوعی سیستمهای وسایل نقلیه را قادر میسازد تا بدون نیاز به دستورالعملهای خاص برای هر موقعیت احتمالی، تصمیم بگیرند.
برای ایمن و مؤثر ساختن وسایل نقلیهی خودران، شبیهسازیهای مصنوعی برای آزمایش قابلیتهای آنها ایجاد میشود. برای ایجاد چنین شبیهسازیهایی، از آزمایش جعبه سیاه (black-box testing) استفاده میشود، در تضاد با اعتبارسنجی جعبه سفید. آزمایش جعبه سفید، که در آن ساختار داخلی سیستم مورد آزمایش برای آزمایشکننده شناخته شده است، میتواند عدم وجود شکست را ثابت کند. روشهای جعبه سیاه بسیار پیچیدهتر هستند و شامل اتخاذ یک رویکرد خصمانهتر میشوند. در چنین روشهایی، طراحی داخلی سیستم برای آزمایشکننده ناشناخته است، که در عوض طراحی و ساختار خارجی را هدف قرار میدهد. این روشها تلاش میکنند تا نقاط ضعف در سیستم را پیدا کنند تا اطمینان حاصل شود که استانداردهای ایمنی بالا را برآورده میکند.
تا سال ۲۰۲۴، وسایل نقلیهی کاملاً خودران برای خرید مصرفکننده در دسترس نیستند. غلبه بر موانع خاصی چالشبرانگیز بوده است. به عنوان مثال، نقشههای تقریباً چهار میلیون مایل از جادههای عمومی در ایالات متحده برای عملکرد مؤثر یک وسیلهی نقلیهی خودران مورد نیاز خواهد بود، که یک وظیفهی دشوار برای تولیدکنندگان است. علاوه بر این، محبوبترین خودروها با ویژگی «خودران»، خودروهای تسلا، نگرانیهایی در مورد ایمنی ایجاد کردهاند، زیرا چنین وسایل نقلیهای حتی به سمت ترافیک روبهرو و پستهای فلزی حرکت کردهاند. هوش مصنوعی به نقطهای پیشرفت نکرده است که خودروها بتوانند در تعاملات پیچیده با سایر رانندگان یا با دوچرخهسواران یا عابران پیاده شرکت کنند. چنین «عقل سلیمی» برای جلوگیری از تصادفات و ایجاد یک محیط ایمن ضروری است.
در اکتبر ۲۰۱۵، خودروی خودران گوگل، وایمو (Waymo) (که این شرکت از سال ۲۰۰۹ روی آن کار میکرد)، اولین سفر کاملاً بدون رانندهی خود را با یک مسافر به پایان رساند. این فناوری بر روی یک میلیارد مایل در شبیهسازیها، و دو میلیون مایل در جادههای واقعی آزمایش شده بود. وایمو، که دارای ناوگانی از وسایل نقلیهی تمام الکتریکی است، در سانفرانسیسکو و فینیکس فعالیت میکند، جایی که کاربران میتوانند مانند اوبر یا لیفت، درخواست سواری کنند. فرمان، پدال گاز، و پدال ترمز بدون راهنمایی انسان کار میکنند، که این فناوری را از ویژگی رانندگی خودران تسلا متمایز میکند. اگرچه ارزشگذاری این فناوری در نوامبر ۲۰۱۹ به ۱۷۵ میلیارد دلار رسید، اما تا سال ۲۰۲۰ به تنها ۳۰ میلیارد دلار کاهش یافته بود. وایمو پس از بیش از ۲۰ گزارش مختلف از تخلفات رانندگی توسط اداره ملی ایمنی ترافیک بزرگراه ایالات متحده (NHTSA) تحت بررسی قرار گرفته است. در موارد خاص، وسایل نقلیه در سمت اشتباه جاده رانندگی کردند و در یک مورد، به یک دوچرخهسوار برخورد کردند.
ریسک ها و چالش های کاربرد هوش مصنوعی
هوش مصنوعی از نظر پیامدهای اخلاقی و اقتصادی-اجتماعی خطرات خاصی را به همراه دارد. با خودکار شدن بیشتر وظایف، به ویژه در صنایعی مانند بازاریابی و مراقبتهای بهداشتی، بسیاری از کارگران در آستانهی از دست دادن شغل خود هستند. اگرچه هوش مصنوعی ممکن است برخی مشاغل جدید ایجاد کند، اما این مشاغل ممکن است به مهارتهای فنی بیشتری نسبت به مشاغلی که هوش مصنوعی جایگزین کرده است، نیاز داشته باشند. اینها چالشهای کلیدی کاربرد هوش مصنوعی در حوزهی نیروی کار هستند.
علاوه بر این، هوش مصنوعی دارای سوگیریهای خاصی است که غلبه بر آنها بدون آموزش مناسب دشوار است. به عنوان مثال، دپارتمانهای پلیس ایالات متحده شروع به استفاده از الگوریتمهای پیشبینی جرم کردهاند تا نشان دهند که احتمال وقوع جرایم در کجا بیشتر است. با این حال، چنین سیستمهایی تا حدی بر اساس نرخهای دستگیری هستند، که در جوامع سیاهپوست از قبل به طور نامتناسب بالا است. این ممکن است منجر به نظارت پلیسی بیش از حد در چنین مناطقی شود، که بیشتر بر این الگوریتمها تأثیر میگذارد. از آنجا که انسانها ذاتاً سوگیر هستند، الگوریتمها ناگزیر منعکسکنندهی سوگیریهای انسانی خواهند بود.
حریم خصوصی یکی دیگر از جنبههای کاربرد هوش مصنوعی است که کارشناسان را نگران میکند. از آنجا که هوش مصنوعی اغلب شامل جمعآوری و پردازش مقادیر زیادی از دادههاست، این خطر وجود دارد که این دادهها توسط افراد یا سازمانهای نامناسب مورد دسترسی قرار گیرند. با هوش مصنوعی مولد، حتی امکان دستکاری تصاویر و ایجاد پروفایلهای جعلی وجود دارد. هوش مصنوعی همچنین میتواند برای نظارت بر جمعیت و ردیابی افراد در فضاهای عمومی استفاده شود. کارشناسان از سیاستگذاران خواستهاند تا شیوهها و سیاستهایی را توسعه دهند که مزایای هوش مصنوعی را به حداکثر رسانده و در عین حال خطرات بالقوهی آن را به حداقل برسانند. در ژانویهی ۲۰۲۴، تیلور سوئیفت، خواننده، هدف دیپفیکهای غیرقانونی جنسی قرار گرفت که به طور گسترده در رسانههای اجتماعی پخش شدند. بسیاری از افراد قبلاً با این نوع سوءاستفادهی آنلاین (که توسط هوش مصنوعی امکانپذیر شده است) مواجه شده بودند، اما وضعیت سوئیفت این مسئله را در صدر سیاست عمومی قرار داد.


