RSS
امروز چهارشنبه ، ۱۲ اردیبهشت ۱۴۰۳
آخرین اخبار

برات سپامی به تأمین مالی کسب‌و‌کار‌ها کمک می‌کند

پرداخت عوارض آزادراهی دیگر شرط صدور بیمه‌نامه نیست

حضور اثربخش بانک رفاه کارگران در نمایشگاه ایران اکسپو

تقدیر نخبگان شاهد و ایثارگر از خدمات شرکت بیمه دی

جزئیات قانون جدید بانک مرکزی

پرداخت بدهی دولت به تامین اجتماعی در لایحه بودجه تصویب شد

آشِ شورِ دلار چند نرخی

استراتژی بهینه رشد تولید

تکرار تجربیات موفق تأمین مالی بانک صادرات ایران برای صنعت خودرو

شیوه بیمه خودرو تغییر می‌کند

انتقال ۲۰ درصد سهام باشگاه پرسپولیس به بانک ملت

درخشش نام بیمه البرز در دایره طلایی

کدام بانک ها دستور رئیسی را وتو کردند

قیمت دلار تا کجا تغییر می‌کند؟

نات کوین کی عرضه می‌شود و چطور بخریم؟

کار ویژه عجیب بانک های خصوصی!

کانون کارگزاران بورس آخرین هشدار درباره آثار مخرب بند "س" را به رئیس مجلس داد

چرخ اقتصاد و تولید کشور با دست‌های توانمند کارگران می‌چرخد

رشد ۴۲ درصدی درآمدهای بانک سینا از محل تسهیلات اعطایی

طرح آرام بام پارسیان برای آسودگی خیال ساکنین و مدیران ساختمان ها

معرفی محصولات بیمه سامان در نمایشگاه اکسپو

خبر خوش درباره گشایش‌های جدید ارزی

شرایط و روش دریافت وام بهین کارت ۲ سپه

کلیات لایحه بودجه تصویب ۱۴۰۳ شد

دلارهای نفتی زیر چرخ مونتاژی‌ها

چقدر باید از پیشرفت سریع هوش مصنوعی نگران بود؟

نگرانی هوشمندانه در مورد هوش مصنوعی

۸:۳۱ - ۱۴۰۲/۶/۲۸کد خبر: 355344
ایستانیوز:طرفداران هوش مصنوعی درباره پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، کمک به مقابله با تغییرات آب و هوایی یا از بین بردن پیچیدگی‌های تولید انرژی از واکنش‌های همجوشی هسته‌ای بحث می‌کنند.
آیا باید همه مشاغل حتی آنهایی را هم که باعث رضایت خاطرمان می‌شوند روی عملکرد خودکار قرار دهیم؟ آیا باید ذهن‌های غیرانسانی را که ممکن است در نهایت از نظر تعداد و هوش از ما پیشی بگیرند و جایگزین ما شوند پرورش دهیم؟ آیا باید ریسک از دست دادن کنترل تمدن خود را بپذیریم؟ این سؤالات ماه گذشته در نامه‌ای سرگشاده از مؤسسه آینده زندگی، یک سازمان غیردولتی و مردم‌نهاد، پرسیده شد. این سند که خواستار یک توقف شش‌ماهه در ایجاد هوش‌های مصنوعی پیشرفته شد، توسط بزرگان فناوری از جمله ایلان ماسک امضا شده است. این بارزترین نمونه نگرانی از پیشرفت سریع هوش مصنوعی و خطرات بالقوه آن است.
 
مدل‌های زبان بزرگ (Large Language Models) مانند چت جی‌‎پی‌تی که به وسیله حجم عظیم داده‌های متنی آموزش دیده‌اند و می‌توانند متونی به زبان انسان تولید کنند، به پرسش‌ها پاسخ دهند و سایر کارهای مربوط به زبان را با دقت بالا انجام دهند، سازندگان خود را با استعدادهای غیرمنتظره‌شان غافلگیر کرده‌اند. چنین توانایی‌هایی شامل همه چیز از حل پازل‌های منطقی و نوشتن کد رایانه‌ای گرفته تا شناسایی فیلم‌ها از خلاصه داستان‌های نوشته‌شده است.
 
این مدل‌ها می‌توانند رابطه انسان‌ها با رایانه، دانش و حتی با خودشان را تغییر دهند.
 
طرفداران هوش مصنوعی درباره پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، کمک به مقابله با تغییرات آب و هوایی یا از بین بردن پیچیدگی‌های تولید انرژی از واکنش‌های همجوشی هسته‌ای بحث می‌کنند.
 
برای دیگران، قابلیت‌های هوش مصنوعی، که به نظرشان در حال حاضر نیز از درک سازندگانشان پیشی گرفته است، بیشتر با خطرات و سناریوی فاجعه علمی- تخیلی دستگاهی همراه است که از مخترع خود پیشی می‌گیرد و اغلب دارای عواقب هولناک است.
 
این مخلوط جوشان از هیجان و ترس، سنجش و سبک‌سنگین کردن ریسک‌ها و فرصت‌ها را دشوار می‌کند. اما می‌توان از سایر صنایع و از تغییرات فناوری گذشته درس گرفت. پس چه چیزی تغییر کرده که هوش مصنوعی را بسیار توانمندتر کرده است؟ چقدر باید ترسید؟ و دولت‌ها چه باید بکنند؟
 
در بخش علوم خاص، عملکرد مدل‌های زبان بزرگ و مسیر آینده آنها را بررسی می‌کنیم. موج اول سیستم‌های هوش مصنوعی مدرن، که یک دهه پیش پدیدار شد، بر روی داده‌های آموزشی با برچسب‌گذاری دقیق تکیه داشت. هنگامی که در معرض تعداد کافی نمونه برچسب‌گذاری‌شده قرار می‌گرفت، می‌توانست کارهایی مانند تشخیص تصاویر یا رونویسی گفتار را بیاموزد.
 
 سیستم‌های امروزی نیازی به برچسب‌گذاری اولیه ندارند و در نتیجه می‌توانند با استفاده از مجموعه داده‌های بسیار بزرگ‌تری که از منابع آنلاین گرفته شده‌اند، آموزش ببینند.
 
زمانی که چت جی‌‎پی‌تی در نوامبر منتشر شد، این قابلیت‌ها برای عموم مردم آشکار شد. یک میلیون نفر در عرض یک هفته و 100 میلیون در عرض دو ماه از آن استفاده کردند. به زودی از آن برای انجام تکالیف مدرسه و سخنرانی‌های عروسی استفاده شد.
 
 محبوبیت چت جی‌‎پی‌تی و اقدام مایکروسافت برای گنجاندن آن در موتور جست‌وجوی Bing، شرکت‌های رقیب را نیز جهت انتشار چت‌بات‌ها برانگیخت.
 
برخی از این موارد نتایج عجیبی به همراه داشت. بینگ چت (Bing Chat) به یک روزنامه‌نگار پیشنهاد کرد که همسرش را ترک کند. چت جی‌‎پی‌تی توسط یک استاد حقوق به افترا متهم شده است.
 
 مدل‌های زبان بزرگ پاسخ‌هایی را ارائه می‌کنند که دارای حقیقت هستند، اما اغلب حاوی اشتباهات واقعی یا جعل آشکارند. با این حال، مایکروسافت، گوگل و سایر شرکت‌های فناوری شروع به استفاده از آنها در محصولات خود کرده‌اند تا به کاربران در ایجاد اسناد و انجام کارهای دیگر کمک کنند.
 
شتاب اخیر در قدرت و دید سیستم‌های هوش مصنوعی و افزایش آگاهی از توانایی‌ها و نقص‌های آن‌ها، این نگرانی را ایجاد کرده است که این فناوری اکنون به سرعت در حال پیشرفت است و نمی‌توان آن را به طور ایمن کنترل کرد. از این رو فراخوان توقف و نگرانی فزاینده مبنی بر این است که هوش مصنوعی نه‌تنها می‌تواند مشاغل و اعتبار انسان‌ها، بلکه موجودیت خود بشریت را نیز تهدید کند.
 
انقراض؟ شورش؟
 
ترس از اینکه ماشین‌ها مشاغل را بدزدند از قرن‌ها پیش وجود دارد. اما تاکنون فناوری جدید مشاغل جدیدی را برای جایگزینی آنهایی که ویران کرده، ایجاد کرده است. ماشین‌ها می‌توانند برخی از کارها را انجام دهند و تقاضا برای افرادی که قادر به انجام کارهایی هستند که ماشین‌ها انجام نمی‌دهند، افزایش می‌یابد.
 
 آیا این‌دفعه متفاوت است؟
 
فناوری قبلی جایگزین کارهایی که به مهارت و تخصص نیاز نداشتند، شده بود، اما مدل‌های زبان بزرگ می‌تواند کارهای اداری و تخصصی مانند خلاصه کردن اسناد و نوشتن کد را انجام دهد.
 
میزان خطر تهدید شدن موجودیت توسط هوش مصنوعی به شدت مورد بحث قرار گرفته است. در یک نظرسنجی که در سال 2022 از محققان هوش مصنوعی انجام شد، 48 درصد بیان کردند که حداقل 10 درصد احتمال دارد تاثیر هوش مصنوعی بسیار بد حتی منجر به انقراض انسان شود. 25 درصد گفتند که خطر صفر درصد است و محققان میانه‌رو خطر را 5 درصد اعلام کردند.
 
 کابوس این است که یک هوش مصنوعی پیشرفته با ساختن سم یا ویروس یا ترغیب انسان به ارتکاب اقدامات تروریستی باعث آسیب در مقیاس وسیع شود. محققان نگران‌اند که هوش‌های مصنوعی آینده ممکن است اهدافی داشته باشند که با اهداف خالقان انسانی آنها همسو نباشد.
 
چنین سناریوهایی را نباید نادیده گرفت اما همه اینها شامل مقدار زیادی حدس و گمان و جهشی از فناوری امروزی است. بسیاری تصور می‌کنند که هوش مصنوعی در آینده دسترسی نامحدود به انرژی، پول و قدرت محاسباتی خواهد داشت، که امروزه محدودیت‌های واقعی هستند و هوش‌های مصنوعی نیز می‌توانند در آینده از آنها محروم شوند.
 
علاوه بر این، کارشناسان تمایل دارند در مورد خطرات حوزه فعالیت خود در مقایسه با سایر پیش‌بینی‌ها، اغراق کنند. اعمال مقررات سنگین یا در واقع یک توقف، واکنشی بیش از حد به نظر می‌رسد و مکث نیز غیرقابل اجرا خواهد بود. مقررات لازم است، اما به دلایلی پیش‌پاافتاده‌تر از نجات بشریت. سیستم‌های هوش مصنوعی موجب نگرانی‌هایی در مورد حریم خصوصی و حقوق مالکیت معنوی می‌شوند. با پیشرفت فناوری ممکن است مشکلات دیگری نیز آشکار شوند. نکته کلیدی متعادل کردن وعده‌های هوش مصنوعی با تخمین ریسک‌ها و آماده بودن برای منطبق شدن با آن است.
 
تاکنون دولت‌ها سه رویکرد متفاوت را در پیش گرفته‌اند. در یک طرف طیف، بریتانیا قرار دارد که رویکرد بدون قوانین یا نهادهای نظارتی جدید اما اعمال مقررات موجود برای سیستم‌های هوش مصنوعی را در پیش گرفته است. هدف آن نیز افزایش سرمایه‌گذاری و تبدیل بریتانیا به یک ابرقدرت هوش مصنوعی است.
 
آمریکا نیز رویکرد مشابهی را در پیش گرفته است، اگرچه دولت بایدن اکنون به دنبال دیدگاه‌های عمومی در مورد این است که یک کتابچه قوانین احتمالاً چگونه خواهد بود. اتحادیه اروپا موضع سخت‌تری اتخاذ می‌کند. قانونِ مطرح‌شده استفاده‌های مختلف از هوش مصنوعی را بر اساس درجه خطر دسته‌بندی می‌کند، زیرا میزان خطر از مثلاً توصیه موسیقی به خودروهای خودران افزایش می‌یابد. این قانون به نظارت و افشاگری فزاینده‌ای نیاز دارد. برخی از کاربردهای هوش مصنوعی مانند تبلیغات از طریق ضمیر ناخودآگاه و بیومتریک از راه دور به‌طور کلی ممنوع هستند. شرکت‌هایی که قوانین را زیر پا بگذارند جریمه خواهند شد، گرچه از نظر برخی منتقدان این مقررات بسیار محدودکننده هستند.
 
اما برخی دیگر می‌گویند رویکرد سختگیرانه‌تری لازم است. دولت‌ها باید مانند داروها از یک تنظیم‌کننده اختصاصی، آزمایش‌های دقیق و تأیید اولیه قبل از انتشار عمومی استفاده کنند. چین برخی از این کارها را انجام می‌دهد و شرکت‌ها را ملزم می‌کند تا محصولات هوش مصنوعی را ثبت کنند و قبل از عرضه، بازبینی امنیتی انجام دهند. اما ایمنی ممکن است انگیزه کمتری نسبت به سیاست ایجاد کند: یک شرط کلیدی این است که خروجی هوش‌های مصنوعی ارزش اصلی سوسیالیسم را منعکس کند. 
 
چه باید کرد؟
 
اگر هوش مصنوعی به اندازه خودرو، هواپیما و دارو یک فناوری مهم باشد، که البته دلایل خوبی هم برای این باور وجود دارد، پس مانند آنها به قوانین جدید نیاز دارد. بر این اساس، مدل اتحادیه اروپا نزدیک‌ترین است. اگرچه سیستم طبقه‌بندی آن بیش از حد پیچیده است و رویکرد مبتنی بر اصول انعطاف‌پذیرتر خواهد بود.
 
شفاف‌سازی قانع‌کننده در مورد نحوه آموزش‌پذیری سیستم‌ها، عملکرد و نحوه نظارت آنها و نیاز به بازرسی، با قوانین مشابه در سایر صنایع قابل مقایسه خواهد بود.
 
می‌توان در صورت نیاز مقررات سختگیرانه‌تری را در طول زمان ایجاد کرد. همچنین ممکن است معاهدات بین‌دولتی مشابه پیمان‌هایی را که بر تسلیحات هسته‌ای نظارت می‌کنند، در صورت وجود شواهد قابل‌قبول مبنی بر خطر برای بشریت، ایجاد کرد. برای نظارت بر این خطر، دولت‌ها می‌توانند بدنه‌ای را با الگوبرداری از cern، سازمان اروپایی پژوهش‌های هسته‌ای، تشکیل دهند که همچنین می‌تواند ایمنی و اخلاقیات را مطالعه کند؛ حوزه‌هایی که شرکت‌ها به اندازه جامعه، انگیزه برای سرمایه‌گذاری ندارند.
 
این فناوری قدرتمند خطرات جدیدی را ایجاد می‌کند، اما فرصت‌های خارق‌العاده‌ای را نیز فراهم می‌سازد. متعادل کردن این دو به معنای راه رفتن با دقت است. یک رویکرد سنجیده امروز می‌تواند پایه‌هایی را فراهم کند که قوانین بیشتری را در آینده اضافه کرد. اما زمان شروع ساخت آن پایه‌ها اکنون است.
 
منبع:اکونومیست
 



برچسب‌ها:هوش مصنوعی
» ارسال نظر
نام:
آدرس ایمیل:
متن: *