مدیر عامل سابق گوگل خطرات هوش مصنوعی مولد را تشریح می کند

ظهور فناوری‌های مولد هوش مصنوعی مانند ChatGPT فرصت‌ها و خطرات جدیدی را ایجاد می‌کند، از راه‌های جدید برای انتشار اطلاعات غلط گرفته تا ایجاد ویروس‌های بیولوژیکی خطرناک.

به گفته اریک اشمیت، مدیر عامل سابق گوگل، ChatGPT و دیگر مدل‌های زبان بزرگ که می‌توانند سخنرانی‌ها، مقاله‌ها، کدهای نرم‌افزاری و موارد دیگر را بسازند، پیشرفت‌هایی در آموزش، مراقبت‌های بهداشتی، علوم و بسیاری از زمینه‌ها فراهم می‌کنند. او در طول یک صحبت کرد بحث آنلاین اوایل این ماه با بنیاد کارنگی برای صلح بین المللی. امروز او در هیئت‌های مختلف خدمت می‌کند و یکی از اعضای مهمان MIT است.

اشمیت گفت که این فناوری احتمالاً نحوه درک بشر از جهان را تغییر خواهد داد. او پادکستی را که یک ماه پیش توسط ابزارهای هوش مصنوعی تولید شده از مصاحبه جو روگان و استیو جابز که در سال 2011 درگذشت و دوست نزدیک اشمیت بود، مثال زد. اشمیت گفت گوش دادن به پادکست “شوک به وجود من، برای سیستم من بود.”

او گفت: “وقتی صدای استیو را شنیدم که با کامپیوتری که انگار امروز زنده است و به سبک خود با بینش خود صحبت می کند، تقریباً شروع به گریه کردم.”

اشمیت گفت که در حالی که این ابزارها می توانند مقدار قابل توجهی فایده داشته باشند، اما می توانند آسیب هم به همراه داشته باشند — چیزی که او گفت که از طریق تجربه خود به عنوان مدیر عامل گوگل شاهد آن بوده است.

اشمیت گفت: “کسانی هستند که از این برای نتایج وحشتناک استفاده می کنند.” ما در جامعه راه حلی برای این موضوع نداریم.»

اشمیت گفت به همین دلیل پارامترهایی برای هوش مصنوعی مورد نیاز است.

خطرات هوش مصنوعی مولد

اشمیت گفت سه خطر مهم وجود دارد که می تواند ناشی از هوش مصنوعی مولد باشد که اولین آنها ایجاد ویروس های بیولوژیکی قاتل است.

او گفت: «بنابراین ساختن ویروس ها نسبتاً ساده است. یک سیستم هوش مصنوعی با استفاده از تکنیک‌های طراحی مولد، به‌علاوه یک پایگاه‌داده از نحوه عملکرد واقعی زیست‌شناسی، و ماشینی که ویروس‌هایی را که وجود دارند، می‌سازد، می‌تواند شروع به ساخت ویروس‌های وحشتناک کند.»

دوم، بازیگران بد می توانند از ابزارهای هوش مصنوعی برای ایجاد و هدف قرار دادن اطلاعات نادرست استفاده کنند، که اشمیت گفت که می تواند منجر به خشونت شود.

در نهایت، اشمیت گفت که هوش مصنوعی مولد زمانی می تواند خطرناک باشد که تصمیم گیری آن سریعتر از انسان باشد، به ویژه در شرایط بحرانی.

او گفت: «سیستم هایی که من توضیح می دهم ویژگی جالبی دارند که اشتباه می کنند. “شما نمی خواهید که این سیستم ها با هواپیما پرواز کنند — شما می خواهید که به خلبانان مشاوره دهد. شما نمی خواهید آنها در مورد چیزهای حیاتی زندگی کنند، زیرا آنها اشتباه می کنند.”

اشمیت با استفاده از ChatGPT گفت که از این ابزار خواسته است تا مقاله ای در مورد اینکه چرا همه آسمان خراش هایی با ارتفاع بیش از 300 متر باید از کره ساخته شوند، بنویسد. این ابزار مقاله ای نوشت که مزایای استفاده از کره برای ساختن آسمان خراش ها را شرح می دهد.

او همان درخواست را دو روز بعد ارسال کرد و ChatGPT نظر خود را تغییر داد و مقاله ای در مورد اینکه چرا کره به اندازه کافی قوی نیست تا در ساخت آسمان خراش ها استفاده شود، نوشت. اشمیت گفت، بخشی از مشکل امروزی مدل‌های زبانی بزرگ این است که آنها توهم می‌زنند.

هر زمان که طراحی مولد وجود داشته باشد، من می خواهم انسانی وجود داشته باشد که بتواند مسئول شناخته شود. اریک اشمیت مدیر عامل سابق گوگل

او گفت: “شما می توانید یک سری سوال به آن بدهید که باعث شود باور کند که بالا پایین است، و جاذبه وجود ندارد، و چپ به راست تبدیل می شود – چیزهایی که برای هر انسانی بی معنی است.” ما به طور کامل ماهیت نحوه کار این مدل های زبان بزرگ را درک نمی کنیم و می دانیم که آنها اشتباه می کنند.

پرداختن به خطرات

اشمیت گفت که هنگام استفاده از ابزارهای مولد هوش مصنوعی، استفاده از ابزارها به صورت مشاوره ای برای کسب و کارها و مصرف کنندگان مهم است و تصمیم گیری نهایی را به انسان واگذار می کند.

او گفت: «هرگاه طراحی مولد وجود داشته باشد، من می‌خواهم انسانی وجود داشته باشد که بتواند مسئول شناخته شود.

اشمیت گفت: توانایی هوش مصنوعی در ایجاد آسیب به این معنی است که نباید بدون محدودیت در مناطق خاصی منتشر شود.

به عنوان مثال، اشمیت گفت که زمانی که در کالج بود، یک دانشجوی مقطع کارشناسی مکانیزم ماشه ای برای کلاهک هسته ای طراحی کرد که بلافاصله طبقه بندی شد. او گفت که دولت ها و توسعه دهندگان به طور یکسان باید موقعیت های مشابهی را شناسایی کنند که در آن فناوری های جدید یا اطلاعات تولید شده توسط فناوری ها ممکن است نیاز به طبقه بندی و جلوگیری از انتشار داشته باشند.

اشمیت گفت: “صنعت من این موضع را اتخاذ کرده است که این چیزها فقط خوب است، ما فقط آن را به همه می دهیم. من فکر نمی کنم این دیگر درست باشد — خیلی قدرتمند است.”

Makenzie Holland یک نویسنده خبری است که قوانین بزرگ فناوری و فدرال را پوشش می دهد. قبل از پیوستن به تحریریه TechTarget، او یک گزارشگر عمومی برای Wilmington StarNews و یک گزارشگر جنایی و آموزش در Wabash Plain Dealer بود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا
به بالای صفحه بردن