خطرات هوش مصنوعی ؛ چهره جهان پیش رو با رهبری هوش مصنوعی : از آنجایی که سیستم‌های هوش مصنوعی به طور فزاینده‌ای در برنامه‌های کاربردی دنیای واقعی مفید هستند، دامنه‌ی دسترسی خود را افزایش داده‌اند و باعث افزایش خطرات سوءاستفاده می‌شوند. با افزایش قابلیت‌های سیستم‌های هوش مصنوعی و ادغام کامل‌تر آن‌ها در زیرساخت‌های اجتماعی، پیامدهای از دست دادن کنترل معنی‌دار بر آنها نگران ‌کننده‌تر می‌شود.

هوش مصنوعی موضوعی است که ذهن بسیاری از افراد را به خود مشغول کرده است. اگر درباره هوش مصنوعی اطلاعات کافی نداریدف میتوانید مقاله: هوش مصنوعی چیست؟ از مجله NBTI را مطالعه کنید. ما در این مقاله بطور مفصل پیرامون این موضع پرداخته ایم.

البته این نتیجه‌ی فیلم‌های هالیوودی زیادی است که درباره‌ی این مفهوم ظاهر شده است. معمولاً در فیلم های هالیوودی، سناریوهای نابودی علمی-تخیلی را می بینید. آنها تقریباً همیشه اغراق آمیز هستند، با این حال، تعداد فزاینده ای از گزارش‌های هشدار دهنده در مورد هوش مصنوعی به گوش می‌رسد که به واقعیت نزدیک است و شاید داستان‌های علمی تخیلی در حال تبدیل شدن به واقعیت هستند. سیستم‌های رایانه‌ای هوشمند به طور فزاینده‌ای درحال پیشرفت هستند.

این سیستم ها به راحتی در برخی زمینه‌ها دست بالا را دارند که خود همین دست بالا بودن، نگران کننده است. در این مقاله از مقالات تخصصی و اجرایی انستیتو NBTI قصد داریم به بررسی برخی خطرات عمده‌ی هوش مصنوعی بپردازیم.

چرا برای محافظت از حقوق بشر در برابر هوش مصنوعی به یک کد اخلاقی نیاز داریم؟

هوش مصنوعی (AI) این پتانسیل را دارد که پیشرفت نوع بشر را در مقیاسی تغییر دهد که از زمان انقلاب صنعتی دیده نشده است. با این حال، پتانسیل ایجاد مشکلات اخلاقی و حقوقی بیشماری را نیز دارد. مثال کلاسیکی که هر دو موضوع را با هم ترکیب می‌کند، خودروی خودران است. تصور کنید که چنین وسیله‌ی نقلیه‌ای قرار است با جمعیتی از عابران پیاده تصادف کند.

آیا باید نرم افزار ماشین را برای محافظت از مسافران یا جمعیت برنامه ریزی می‌کردیم؟ اگر در مقایسه با چهار سرنشین در ماشین فقط یک نفر در خطر باشد چه؟ و درمورد مسئولیت قانونی وقتی همه چیز اشتباه می‌شود چطور؟ وقتی یک اشکال نرم افزاری منجر به مانور اشتباهی می‌شود که منجر به مرگ یا جراحت مسافران یا رهگذران می‌شود، چه کسی مسئولیت را بر عهده می‌گیرد؟

فرم درخواست مشاوره

رخنه هوش مصنوعی در سیستم های اطلاعاتی و شناسایی

هوش مصنوعی در حال حاضر در سیستم های قضایی و اجرای قانون استفاده می‌شود. مثلاً پلیس متروپولیتن لندن در حال آزمایش یک سیستم خودکار تشخیص چهره (AFR) است که از آن در رویدادهای عمومی مانند کنسرت‌های پاپ، جشنواره‌ها و مسابقات فوتبال استفاده می‌کند. دوربین‌های مداربست‌ی سیار، جمعیت را اسکن می‌کنند و به دنبال تطبیق تصاویر چهره‌ها با عکس‌های مجرمان تحت تعقیب هستند. بر اساس داده‌های به دست آمده با استفاده از قوانین آزادی اطلاعات، 98 درصد از این موارد نادرست هستند.رخنه هوش مصنوعی در سیستم های اطلاعاتی و شناسایی

گروه‌های حقوق بشری هشدار می‌دهند که تشخیص خودکار چهره، خطر تبدیل فضاهای عمومی به نقاط بازرسی بیومتریک را به همراه دارد که تأثیر بالقوه‌ی مخربی بر یک جامعه‌ی آزاد خواهد داشت، زیرا مردم از ترس اینکه به اشتباه به عنوان مجرم شناخته شوند، از پیوستن به راهپیمایی های اعتراضی اجتناب می‌کنند و دستگیر و بازداشت می‌شوند.

ضروری است که همه به طور مسئولانه با ابزارهای اصلی هوش مصنوعی مانند ChatGPT، Bard، Craiyon و Voice.ai، در میان دیگران، تعامل داشته باشند تا از این سه خطر واقعی هوش مصنوعی که به احتمال زیاد در آینده با آنها مواجه خواهید شد، دور بمانند:

1. توهمات هوش مصنوعی

نکته‌ی جالب در مورد هوش مصنوعی این است که به حدی پیشرفت کرده است که خودش فکر می‌کند! مدام در حال یادگیری و شکل دادن الگوهای جدید است. هر چه سوالات بیشتری از آن بپرسید، داده‌های بیشتری جمع آوری می‌کند و “هوشمندتر” می‌شود. با این حال، وقتی از ChatGPT سؤالی می‌پرسید که پاسخ آن را نمی‌داند، نمی‌پذیرد که نمی‌داند. در عوض، مانند یک دانش آموز نابلد پاسخی را خواهد داد. این پدیده به عنوان توهم هوش مصنوعی شناخته می‌شود. برای درک بهتر، مقاله: آینده هوش مصنوعی چیست؟ را مطالعه نمایید.

یکی از نمونه‌های بارز توهم هوش مصنوعی در دادگاه نیویورک رخ داد. یک وکیل، خلاصه‌ای طولانی ارائه کرد که در آن موارد متعددی از قانون برای حمایت از نظر خود ذکر شد. به نظر می‌رسد که وکیل از ChatGPT برای نوشتن کل خلاصه استفاده کرده است و او کار هوش مصنوعی را بررسی نکرده است. ChatGPT استنادهای پشتیبان خود را ساخته بود که هیچ کدام وجود نداشتند!

توهمات هوش مصنوعی می‌تواند به تهدیدی برای جامعه تبدیل شود؛ زیرا می‌تواند اینترنت را با اطلاعات نادرست پر کند. محققان و نویسندگان موظفند هر کاری را که به ابزارهای تولید متن مانند ChatGPT برون سپاری می‌کنند، به طور کامل بررسی کنند. وقتی یک منبع آنلاین قابل اعتماد، محتوایی را منتشر می‌کند و آن را به عنوان حقیقت بی طرفانه بیان می‌کند، خوانندگان باید بتوانند اعتماد کنند که ناشر آنها را به بیراهه نمی‌برد.

2. خبرهای نادرست روزانه

همه‌ی ما می‌دانیم که نمی‌توانیم به هر چیزی که در اینترنت می‌خوانیم، اعتماد کنیم. اما محتواهای تولید شده توسط هوش مصنوعی، بی اعتمادی را عمیق‌تر می‌کند. Deepfake دستکاری دیجیتالی یک عکس یا ویدیو برای به تصویر کشیدن رویدادی است که هرگز اتفاق نیفتاده است، یا شخصی را در حال انجام یا گفتن کاری که هرگز انجام نداده یا نگفته است به تصویر می‌کشد. هنر هوش مصنوعی تصاویر جدیدی را با استفاده از مجموعه‌ای از آثار منتشر شده در اینترنت ایجاد می‌کند تا درخواست را برآورده کند.

هنر دیپ فیک و هوش مصنوعی (زمانی که مردم از آنها برای تکمیل گزارش‌های اخبار جعلی استفاده می‌کنند) به خطری برای عموم تبدیل می‌شوند. افراد و سازمان‌هایی که به شدت نسبت به یک موضوع احساس خطر می‌کنند، ممکن است از یکپارچگی به طرف خود اجتناب کنند تا پیروان جدیدی را برای هدف خود به دست آورند. اخبار جعلی، اغلب ملتهب کننده هستند و در موارد شدید می‌توانند باعث ناآرامی شوند. قبل از به اشتراک گذاشتن یک مقاله “اخبار” با فالوورهای رسانه‌های اجتماعی خود یا فریاد زدن در مورد آن برای دیگران، تحقیقات بیشتری را برای اطمینان از صحت آن انجام دهید. علاوه بر این، ویدیو یا تصویر همراه با داستان را به دقت بررسی کنید.

3. کلاهبرداری های صوتی با هوش مصنوعی

نوعی استفاده‌ی خطرناک از هوش مصنوعی در کلاهبرداری‌های صوتی ظاهر می‌شود. فیشرها برای چندین دهه تلاش کرده‌اند که اطلاعات شخصی افراد را به دست آورند و از طریق تلفن، سود مالی کسب کنند. اما اکنون با کمک ابزارهای صوتی هوش مصنوعی، کلاهبرداری‌های آنها وارد بُعد کاملاً جدیدی از باورپذیری شده است.

در کمتر از سه ثانیه فاصله با صدای واقعی، مولدهای صدای هوش مصنوعی می‌توانند صدای افراد را با دقت 95 درصد تقلید کنند. در حالی که تولیدکنندگان صدای هوش مصنوعی ممکن است مقداری طنز را به یک ویدیوی کمدی ‌فیک اضافه کنند، جنایتکاران از این فناوری برای ترساندن جدی مردم و کلاهبرداری از آنها در همان زمان استفاده می‌کنند.

کلاهبرداری های صوتی با هوش مصنوعیمجرم با استفاده از صدای او خود را جعل می‌کند و با فرد مورد علاقه‌ی شخص واقعی تماس می‌گیرد و می‌گوید که دزدیده شده یا تصادف کرده است. گزارشی از پلیس بین الملل می‌گوید که 77 درصد از افرادی که هدف کلاهبرداری صوتی هوش مصنوعی قرار گرفته‌اند، طعمه‌ی سوءاستفاده‌های مالی گزاف شده‌اند.

از هوش مصنوعی به طور مسئولانه استفاده کنید

آیین‌نامه‌ی رفتاری گوگل بیان می‌کند که «شیطان نباش». از آنجایی که هوش مصنوعی هرگز نیازی به استراحت ندارد، می‌تواند هر ثانیه، چیزهای جدیدی یاد بگیرد. این به سرعت در حال پیشرفت است و برخی از هنرهای نوشتاری و بصری‌ای که ایجاد می‌کند، می‌تواند به زندگی روزمره‌ی ما به طور محسوسی رسوخ کند. اما هوش مصنوعی کاملاً احساساتی را که به تصویر می‌کشد، درک نمی‌کند.

این فقط یک بازی برای ساختن الگوهاست. آیا هوش مصنوعی – به ویژه استفاده از آن در کارهای خلاقانه – جرقه‌ی خلاقیت بشریت را کمرنگ می‌کند؟ وقتی مسئولانه و در حد اعتدال در زندگی روزمره از آن استفاده کنیم، ممکن است ما را کارآمدتر کند و به ما انگیزه دهد که به روش‌های جدید فکر کنیم. تنها راه بهینه، آگاهی جمعی و مراقبت از خطرات هوش مصنوعی است که بتوان از این فناوری شگفت انگیز برای همیشه استفاده کرد و درگیر خطرات و مضرات آن نشد.

پرسش های پرتکرار در زمینه هوش مصنوعی

آیا هوش مصنوعی تهدیدی برای زندگی انسان است؟

استفاده‌ی انسانی از هوش مصنوعی، هر چیزی را که انسان تصور می‌کند می‌تواند خودکار کند و پوشش دهد. از قبیل امور خطرناک و کلانی همچون: کنترل متمرکز یا مویی‌تر سلاح‌های هسته‌ای، کمپین‌های اطلاعات غلط قوی‌تر، سلاح‌های بیولوژیکی مرگبارتر، برنامه‌ریزی مؤثرتر برای کنترل اجتماعی و غیره.

چرا هوش مصنوعی ممکن است خطرناک‌تر شود؟

بزرگترین خطرات، ناشی از تکثیر هستند. زمانی که تنها تعداد کمی از کاربران بتوانند به توانمندترین سیستم‌های هوش مصنوعی دسترسی داشته باشند، ریسک‌های هوش مصنوعی راحت‌تر مدیریت می‌شوند. با تکثیر مدل های قدرتمند هوش مصنوعی، احتمال بیشتری وجود دارد که در دست کاربرانی قرار گیرند که از ایمنی کمتری آگاه هستند یا عمداً می‌خواهند آسیبی وارد کنند.

آیا هوش مصنوعی برای جامعه خوب است یا بد؟

هوش مصنوعی می‌تواند به بهبود دسترسی به آموزش، مراقبت‌های بهداشتی و آب سالم کمک کند و همچنین می‌تواند در مبارزه با تغییرات آب و هوایی، فقر و گرسنگی کمک کند. با این حال، برای جلوگیری از هرگونه عواقب منفی ناخواسته، اطمینان از توسعه و استفاده از هوش مصنوعی به شیوه‌ای اخلاقی و مسئولانه ضروری است.