Web Analytics Made Easy - Statcounter

به گزارش خبرگزاری صدا و سیما، اگرچه چت‌بات‌هایی مثل ChatGPT می‌توانند کاربرد‌های مفیدی در زمینه‌های مختلف داشته باشند، اما «نوآم چامسکی»، زبان‌شناس و فیلسوف برجسته، در یادداشتی مدعی شده است که این فناوری هرگز نمی‌تواند گفتگو‌های ناب، فکرشده و بحث‌برانگیز داشته باشد. او در وضعیت فعلی هوش مصنوعی را مصداق «ابتذال شر» می‌داند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

  نوآم چامسکی اخیراً در مقاله‌ای در وب‌سایت نیویورک تایمز پذیرفته است که ChatGPT از شرکت OpenAI، بارد از گوگل و سیدنی از مایکروسافت نمونه‌های شگفت‌انگیزی از فناوری یادگیری ماشینی هستند. بااین‌حال، او باور دارد که فقدان اخلاق و تفکر معقولانه باعث می‌شود هوش مصنوعی مصداقی برای «ابتذال شر» یا بی‌تفاوتی نسبت به واقعیت و حقیقت باشد.   چامسکی می‌گوید: «با توجه به علم زبان‌شناسی و فلسفه دانش می‌دانیم که این [فناوری]به‌شکلی عمیق با شیوه استدلال و استفاده از زبان توسط انسان‌ها تفاوت دارد. این تفاوت‌ها محدودیت‌های بزرگی را بر دامنه قابلیت‌های این برنامه‌ها اعمال می‌کنند.»   این متفکر سرشناس آمریکایی باور دارد که به همین دلیل است که هوش مصنوعی در مرحله ماقبل انسانی یا غیرانسانی در فرایند تکامل شناختی گیر کرده: «هوش حقیقی با قابلیت تفکر و بروز رفتار‌های غیرمحتمل، اما خردمندانه به نمایش درمی‌آید.»   توانایی استدلال براساس اطلاعات موجود و رسیدن به نتیجه‌گیری‌های جدید یکی از ویژگی‌های برجسته مغز انسان است. چامسکی می‌گوید مغز ما به‌جای این که صرفاً بتواند روابط میان معانی را شناسایی کند، تکامل پیدا کرده است تا «خلق توضیح» کند. چامسکی ادامه می‌دهد: «اگر ChatGPT می‌خواهد کارآمد باشد، باید برای خلق خروجی‌های بدیع توانمند شود و اگر می‌خواهد توسط اکثر کاربران پذیرفته شود، باید از هر‌گونه محتوای غیراخلاقی مبرا گردد.»   نوآم چامسکی می‌گوید ترس از افسارگسیختگی هوش مصنوعی احتمالاً باعث می‌شود که این فناوری هرگز نتواند تصمیم‌گیری عقلانی داشته باشد و درباره گزاره‌های اخلاقی اظهارنظر کند. در‌ نتیجه هوش مصنوعی ممکن است در حد یک اسباب‌بازی باقی بماند.   این زبان‌شناس مشهور ادامه می‌دهد: «ChatGPT نشانگر چیزی شبیه به ابتذال شر است؛ این فناوری استدلال‌های استاندارد ادبی را در نوعی ابزار ابرقدرتمندِ تکمیل خودکار خلاصه می‌کند، از موضع‌گیری روی موضوعات مختلف سر باز می‌زند، نه‌تن‌ها بر جهل، بلکه بر عدم هوشمندی اتکا می‌کند و نهایتاً با ادعای تبعیت از فرمان‌ها به دفاع از خود می‌پردازد و مسئولیت رفتارش را به سازندگانش واگذار می‌کند.»   چامسکی در آخر می‌گوید: «ChatGPT به‌خاطر فقدان ظرفیت استدلال‌کردن به‌خاطر اصول اخلاقی خود، به‌شکلی خام توسط برنامه‌نویسانش محدود شده است تا هیچ مشارکت بدیعی در گفتگو‌های بحث‌برانگیز، اما مهم نداشته باشد. این برنامه خلاقیت را فدای شکلی از بی‌اخلاقی کرده است.»

منبع: خبرگزاری صدا و سیما

کلیدواژه: هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.iribnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۳۰۳۳۷۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

آخرین قوانین کشورها برای مقابله با خطرات هوش مصنوعی

خبرگزاری علم و فناوری آنا؛ توسعه هوش مصنوعی در سال های اخیر با سرعت زیادی انجام شده است و این روزها به کمک این فناوری می توان تقریبا تمام فعالیت های روزانه و حتی برخی از مشاغل که  انجام آن‌ها به صورت دستی زمان زیادی نیاز داشت را در کسری از ثانیه انجام داد. اما این فناوری در کنار تمام فوایدی که دارد در صورت از کنترل خارج شدن یا مورد سوء استفاده گرفتن توسط برخی افراد می‌تواند باعث ایجاد فاجعه شود تا حدی که ایلان ماسک مالک تسلا و اسپیس ایکس این فناوری را خطرناک‌تر از بمب اتمی اعلام کرده است.

همزمان با روند توسعه هوش مصنوعی در جهان کشورها نیز برای حفظ امنیت فضای سایبری خود تصمیم به وضع قوانین خاصی برای هوش مصنوعی گرفتند؛ از آنجایی که اکثر این قوانین در اوایل راه اندازی فناوری هوش مصنوعی تصویب شده بود و با توجه به پیشرفت این فناوری بسیاری از قوانین اثرگذاری لازم را نداشت، برخی از کشورها تصمیم به وضع قوانین جدیدی برای این فناوری گرفتند.

ایتالیا

چند روز پیش بود که دولت ایتالیا اعلام کرد مجازات سوء استفاده از هوش مصنوعی در این کشور سنگین‌تر خواهد شد. بر اساس پیش نویس لایحه قانون جدید این کشور، دولت ایتالیا در حال بررسی برای بالا بردن مجازات جرائم سایبری به خصوص روی هوش مصنوعی است.

در این پیش نویس اعلام شده مجازات‌هایی برای تقلب در بازار با استفاده از ابزارهای هوش مصنوعی در نظر گرفته شده و مستقیما اعلام شده از این فناوری برای پولشویی نیز دارای مجازات بسیار سنگینی است. همچنین در لایحه گفته شده جریمه‌هایی برای نقض قانون کپی رایت با کمک هوش مصنوعی تعیین و تا ۳ سال حبس برای مجرمانی که از هوش مصنوعی برای ایجاد دیپ فیک استفاده کنند، مشخص شده است.

اتحادیه اروپا

اتحادیه اروپا همواره دغدغه مدیریت و کنترل هوش مصنوعی را داشته و چندین بار قوانین به خصوصی را در این زمینه به تصویب رسانده است. به تازگی نیز این اتحادیه قوانین جدیدی را برای کنترل هوش مصنوعی به تصویب رسانده است که شامل شفافیت سیستم‌های هوش مصنوعی، مدیریت هوش مصنوعی پرخطر، محدودیت‌های کاربردی هوش مصنوعی، محدودیت در نظارت بیومتریک و محدودیت در نظارت بیومتریک از جمله بندهای آن است.

اتحادیه اروپا در این قانون به طور مستقیم مشخص کرده که توسعه دهندگان هوش مصنوعی باید اطلاعات واضح از نحوه فعالیت هوش مصنوعی طراحی شده توسط آنان را به اتحادیه اروپا ارائه دهند. علاوه بر این اتحادیه اروپا در قوانین جدید خود لزوم نظارت بیشتر بر نحوه فعالیت هوش مصنوعی را اعلام کرده و برخی از هوش مصنوعی ها را با عنوان پرخطر نام گذاری خواهد کرد که به این ترتیب نظارت بر آن ها چند برابر خواهد شد.

سازمان ملل

نگرانی درباره فناوری هوش مصنوعی به سازمان ملل هم رسده و این سازمان در اوایل فروردین ماه سال جاری قطعنامه‌ای را به تصویب رسانده و محبوبیت این قطعنامه تا حدی بود که سازمان ملل بدون رای گیری آن را به تصویب رساند و 120 کشور عضو سازمان ملل از این قطعنامه حمایت کردند.

بر اساس قطعنامه به تصویب رسیده در سازمان ملل، از کشورهای عضو سازمان ملل و سایر کشورها خواسته شده است که از استفاده ازهوش مصنوعی ناسازگار با قوانین بین‌المللی حقوق بشری خودداری کنند. به‌عبارتی همان حقوق اساسی که افراد در سراسر جهان از آن برخوردار هستند، باید در بخش دیجیتال نیز دنبال و از آن محافظت شود.

انگلستان

انگلیس به طور مستقیم قوانین جدیدی را برای مدیریت هوش مصنوعی به تصویب نرسانده است اما بر اساس اعلام موسسه تحقیقات سیاست عمومی این کشور حدود 11 درصد از وظایف کارکنان انگلستانی توسط هوش مصنوعی انجام می شود و در صورت ادامه استفاده از هوش مصنوعی با همین رویه، احتمال افزایش این رقم تا 60 درصد وجود خواهد داشت و به این ترتیب حدود 8 میلیون شغل در خطر نابودی قرار خواهند گرفت. به این ترتیب دولت انگلستان به طور جدی به دنبال وضع قوانین سختگیرانه ای برای کنترل هوش مصنوعی در کشور خود است.

چین

کشور چین یکی از کشورهای پیشتاز در زمینه تدوین قانون برای هوش مصنوعی بوده و همواره سعی کرده اتس با بروزرسانی قوانین این حوزه قوانین خود را نیز بروز کند. در حال حاضر در کشور چین  هوش مصنوعی مولد، براساس الگوریتم‌هایی که می‌توانند برای تولید محتوای جدید از جمله صوت، کد، تصویر، متن، شبیه‌سازی و ویدیو استفاده شوند، توصیف شده است.

دولت چین معتقد است پیشرفت‌های فناوری در این حوزه می‌تواند نحوه اندیشه مردم درباره تولید محتوا را شدیداً تغییر دهد و برای این صنعت نیز قوانین خاصی را مدنظر خود قرار داده که هنوز به طور رسمی منتشر نشده است اما برخی منتقدان ایم حوزه بر این باورند که قوانین چین بسیار سختگیرانه خواهد بود و در برخی موارد استفاده از هوش مصنوعی خطرناک در این کشور را به طور کامل ممنوع خواهد کرد.

آمریکا

در آمریکا نیز خطرات از کنترل خارج شدن هوش مصنوعی وجود دارد و جینا رایموندو، وزیر بازرگانی ایالات متحده آمریکا و میشل دونلان، وزیر فناوری انگلیس، پس از تعهدات اعلام شده در نشست ایمنی هوش مصنوعی در بلچلی پارک در ماه نوامبر سال گذشته میلادی یادداشت تفاهمی را در واشنگتن امضا کردند تا به طور مشترک آزمایش مدل هوش مصنوعی پیشرفته را توسعه دهند.

دونلان نیز افزود: این نخستین توافق در نوع خود در سراسر جهان است. هوش مصنوعی در حال حاضر یک فناوری خارق‌العاده برای عموم مردم جامعه است و پتانسیل زیادی برای مقابله با برخی از بزرگترین چالش‌های جهان دارد، اما به شرطی که بتوانیم این خطرات را کنترل کنیم.

انگلیس و ایالات متحده قصد دارند حداقل یک تمرین آزمایشی مشترک را بر روی یک مدل در دسترس عموم انجام دهند و در حال بررسی تبادل پرسنل بین مؤسسه‌ها هستند. هر دو در تلاشند تا مشارکت‌های مشابهی با سایر کشور‌ها برای ارتقای ایمنی هوش مصنوعی توسعه دهند.

کلام پایانی

به طور کلی تمام کشورهای جهان از خطرات هوش مصنوعی اطلاع دارند و تقریبا تمام آن ها در این حوزه قانون گذاری کرده‌اند ای خداقل با تصویب لایحه هایی تا زمان تصویب قانون این فناوری را تحت کنترل قرار داده‌اند؛ اما در کشور ما تاکنون مصوبه یا قانونی منتشر نشده است و مشخص نیست متولیان این حوزه یعنی شورای عالی فضای مجازی چه زمانی قصد ورود و مدیریت توسعه این فناوری را خواهد داشت.

بسیاری از منتقدان بر این باور هستند که هوش مصنوعی مانند اینترنت و شبکه های اجتماعی نیست که بتوان پس از گستردگی استفاده در میان کاربران روی آن مدیریت داشت و باید پیش از همه گیر شدن استفاده از آن وضعیت این فناوری را مشخص کرد.

 

انتهای پیام/

دیگر خبرها

  • آخرین قوانین کشورها برای مقابله با خطرات هوش مصنوعی
  • تاثیر اسباب بازی در نبوغ و رشد کودکان
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد
  • بارورسازی ابرها می‌تواند منجر به اثرات فاجعه بار شود
  • چرا بارورسازی ابرها بحث برانگیز است و چگونه انجام می‌شود؟
  • اسباب‌بازی‌های چوبی جایگزینی مناسب برای بازی‌های سرد و بی‌روح + عکس و فیلم
  • سپاه پاسداران جان می‌دهد تا عزت ایران و ایرانی باقی بماند
  • گواردیولا: اتفاقی که برای لیورپول افتاد ممکن است برای ما هم رخ دهد
  • پیام محمدعلی اسلامی ندوشن به خاتمی چه بود؟ / شاهنامه نمی گذارد ایران در خواب غفلت باقی بماند / ادیبان و فیلسوفان بزرگی که عامل تهاجم فرهنگی اعلام شدند
  • موزه‌ای که به یک فقر تربیتی پاسخ گفت/ اسباب‌بازی، دروازه شور خلاقانه