پنج سناریوی ترسناک درباره هوش مصنوعی

رایورز – هوش مصنوعی علاوه بر جنبه‌های مثبت، دارای عوارض منفی و ناخواسته نیز هست که حذف مشاغل، بروز جنگ و نژادپرستی از آن جمله است.

 

امروزه هوش مصنوعی به یکی از کلیدواژه‌های اصلی جهان دانش و فناوری تبدیل شده است. شرکت‌های مختلف در اقصی نقاط جهان، می‌کوشند این فناوری را کاربردی‌تر کرده و آن را بیش از پیش به زندگی روزمره انسان‌ها وارد کنند. به عبارت دیگر این فناوری آرام آرام به مرحله بلوغ خود نزدیک می‌شود و طبق برخی آمار، گفته می‌شود بازار هوش مصنوعی تا سال 2022 بالغ بر 4 تریلیون دلار ارزش خواهد داشت.
 


وب سایت شبکه خبری CNBC به پنج سناریوی ترسناکی که شاید هوش مصنوعی برای انسان‌ها رقم بزند، اشاره کرده است:
 
1. بیکاری گسترده
 
یکی از نگرانی‌های اصلی نسبت به رواج استفاده از ابزار هوشمند، بیکار شدن انسان هاست. در واقع از دیرباز، حذف مشاغل، از جمله بزرگترین دغدغه‌های مرتبط با هوش مصنوعی به شمار می‌رود. این در حالی است که طرفداران هوش مصنوعی می‌گویند فناوری مزبور باعث ایجاد نوع جدیدی از شغل‌ها خواهد شد زیرا پیشرفت فناوری، نیاز به مهندسان و توسعه‌گران آشنا با موضوع دارد و همین، آمار اشتغال‌زایی را بالا می‌برد. پیش‌بینی‌های گارتنر نیز حاکی از آن است که هوش مصنوعی تا سال 2020 بالغ بر 2.3 میلیون شغل ایجاد می‌کند و 1.8 میلیون شغل را نیز از بین می‌برد: کفه ترازو، به نفع اشتغالزایی سنگینی می‌کند.
 
2. جنگ
 
موضوع ربات‌های قاتل یا سلاح‌های خودمختار امروزه دیگر چندان عجیب و غریب نیست. این اصطلاحات که قبلاً در مرکز داستان فیلم‌هایی مانند ترمیناتور یا جنگ ستارگان قرار داشت، اکنون فقط محدود به داستان‌های علمی تخیلی نیست و چه بسا به زودی از جبهه‌های جنگ واقعی سر در آورد. ایلان ماسک که به دلیل مخالفت‌هایش با هوش مصنوعی شهره است، می‌گوید این فناوری می‌تواند جنگ جهانی سوم را آغاز کند. اگر چه برخی کارشناسان این ترس را غیرواقعی می‌دانند ولی جالب اینجاست که در اوایل همین امسال، موسسه رند (Rand) وابسته به وزارت دفاع آمریکا، ضمن تحقیقات خود هشدار داد که تا سال 2040، هوش مصنوعی به کار رفته در ابزار نظامی ممکن است به بروز جنگ هسته‌ای منجر شود.
 
3. ربات‌های پزشک
 
اگر چه امروزه کاربرد هوش مصنوعی در شناسایی و درمان برخی بیماری‌ها پوشیده نیست ولی کارشناسان نسبت به حجم بالای داده‌های سلامتی کاربران که می‌تواند بعضاً مورد سوءاستفاده قرار گیرد نگرانند. علاوه بر این، عملکرد هوش مصنوعی در برخی بیماری‌ها نامشخص و مبهم است. مثلاً بنا به گفته یک استاد دانشگاه در ادینبرو، یک اپلیکیشن تشخیص پزشکی، می‌تواند مشکلات قلبی را به خوبی تشخیص دهد ولی همین برنامه شاید در تشخیص برخی سرطان‌های نادر اشتباه کند و از آن طرف، داروهای اشتباهی تجویز نموده و در نهایت جان بیمار را به خطر اندازد.
 
4. برادر بزرگ
 
در رمان ۱۹۸۴، برادر بزرگ یا همان Big Brother، نماد و چهره نظام حکومتی است که به شیوه‌های گوناگون، بر زندگی طبقات مختلف مردم، نظارت و کنترل دارد. کارشناسان بابت این موضوع که هوش مصنوعی بتواند تک تک افراد جامعه را تحت کنترل خود بگیرد، احساس نگرانی می‌کنند. نمونه کوچک آن را می‌توان در چین سراغ گرفت: امروزه در شهرهای مختلف چین، از ترکیب هوش مصنوعی و فناوری تشخیص چهره برای کاهش جرم و جنایت استفاده می‌شود. البته کاهش آمار جنایت، امر مطلوبی است ولی سرک کشیدن بی‌حساب به زندگی خصوصی شهروندان، خیر. طبق بررسی‌های نیویورک تایمز، در حال حاضر 200 میلیون دوربین مدار بسته در چین فعال است و با توجه به سرمایه‌گذاری‌های عظیم این کشور در فناوری هوش مصنوعی، گفته می‌شود تا سال 2030، چین رهبری این نوع فناوری در جهان را در دست خواهد گرفت. شرکت SenseTime که از آن به عنوان ارزشمندترین شرکت حوزه هوش مصنوعی یاد می‌شود، تحت کنترل کمپانی علی بابا قرار دارد و خدمات زیادی در زمینه نظارت آنی ویدیو و کمک به اداره جامعه، به دولت چین نموده است. SenseTime در وب‌سایت خود گفته، از سال 2017 اداره امنیت عمومی منطقه گوانگژو توانسته با کمک فناوری این شرکت، 2000 مظنون را شناسایی کند.
 
5. تبعیض
 
اگر خاطرتان باشد دو سال پیش چت بات Tay مایکروسافت افتضاح زیادی به بار آورد. این ربات مبتنی بر هوش مصنوعی، پیام‌های نامناسب، شیطنت‌آمیز و نژادپرستانه‌ای از خود تولید می‌کرد که باعث تعجب و اعتراض دیگران شده بود. مثلاً وی در پیام‌هایی در توییتر، ضمن حمایت از هیتلر، به مردم مکزیک توهین کرده بود. هر چند هدف مایکروسافت از خلق Tay، بررسی قابلیت سیستم‌های هوش مصنوعی بود ولی مایکروسافت عملاً مجبور شد علاوه بر حذف این ربات از توییتر، به طور رسمی از تمامی کاربران عذرخواهی کند. در آن زمان، موضوع ربات بی‌ادب تا حدودی فیصله یافت ولی نگرانی کارشناسان در این خصوص فروکش نکرد. برخی صاحب‌نظران بر این باورند که نژادپرستی و تبعیض، یکی از عواقب غیرمنتظره استفاده از فناوری‌های نوین است. آنها می‌گویند هوش مصنوعی می‌تواند این قابلیت را پیدا کند که با توجه به فاکتورهایی همچون مذهب، جنسیت، نژاد و قومیت، واکنش‌های متفاوتی ابراز نماید.

منبع: