به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه با حضور حجج اسلام والمسلمین سخاوتیان و عندلیب به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامهها در شماره های گوناگون پرداخته و در این مطلب به انتشار جلسه ششم خواهیم پرداخت.
مجری: بسم الله الرحمن الرحیم. عرض سلام و ادب دارم.
در برنامههای گذشته گفتیم هوش مصنوعی تکنولوژی است که عملکردی شبیه به انسان یا فراتر از عملکرد انسان پیدا میکند و غالباً به عنوان شاخهای از علوم کامپیوتر شناخته میشود. با توجه به گسترش و کاربردهای فراوانی که دارد، میطلبد که جایگاه فقهی و حقوقی آن مورد بحث و گفتگو قرار بگیرد. گفتیم که ضرر و زیان گاهی منتسب به یک یا چند عامل به طور مستقیم است که به آن عامل مباشر و یا یک یا چند عامل غیرمستقیم است که به آن سبب گفته میشود. هوش مصنوعی را از جهت فعالیتهای شبیه به انسان به دو دستهی قوی و ضعیف تقسیم کردیم و گفتیم که هوش مصنوعی قوی از نظر فقهی وجود خارجی نداشته و هوش مصنوعی ضعیف در صورت ارتکاب جرم از جهت فقهی و حقوقی ضامن نیست. دربارهی شخصیت مستقل حقیقی و یا حقوقی سیستمهای هوش مصنوعی بحث و گفتگو کردیم و گفتیم از آنجایی که نگاه ما به هوش مصنوعی متفاوت است، بسته به نگاه ما اعطای شخصیت به هوش مصنوعی متفاوت خواهد بود. دربارهی جرایم عمد هوش مصنوعی صحبت کردیم که در صورت ارتکاب مجازات متوجه چه کسی است؟ هوش مصنوعی یا مالک و سازندهی آن؟ از نظر فقهی چون اراده و اختیار در هوش مصنوعی که حاصل آن قصد و نیّت است رخ نداده است و لذا مجازات متوجه آن نیست، اما از جهت حقوقی بیان شد که اگر مالک یا سازندهی آن ربات قصد تخریب داشته باشد، از باب أقوی بودن سبب از مباشر سازندهی آن مجرم و در صورت عدم قصد مالک و سازندهی آن نسبت به تخریب مباشر مجرم شناخته میشود.
اما بحث امروز ما دربارهی قابلیت اعمال دفاعیات عام در خصوص سیستمهای دارای هوش مصنوعی است. این سؤال را از جناب آقای دکتر عندلیب میپرسم که آیا دفاعیات موجه جهت تبرئه شدن سیستمهای دارای هوش مصنوعی از نظر حقوقی وجود دارد یا خیر؟
- آقای عندلیب
ما در مباحث حقوقی بعد از اینکه مباحث مسئولیت کیفری را داریم، اصطلاحاً یک بحثی تحت عنوان دفاعیات داریم که در بحث دفاعیات دو نوع دفاع را میتوانیم انجام دهیم و آن بسته به این دارد که ما با دو مبحث آشنایی داشته باشیم که یکی موانع مسئولیت کیفری است که اصطلاحاً این مانع اجازه نمیدهد مسئولیت کیفری محقق شود. یک دسته از مباحث هم عوامل موجههی جرم هستند که اصطلاحاً به اینها رافع میگویند. آن دستهی اول دافع هستند و اصلاً اجازهی تحقق مسئولیت کیفری را نمیدهند، دستهی دوم رافع هستند که در ادبیات حقوقی به آنها عوامل موجههی جرم میگویند. یعنی جرم محقق است و مرتکب جرم هم مسئولیت کیفری دارد، اما یک عامل موجهی هست که ما به او مسئولیت کیفری ندهیم.
اجازه میخواهم که در بحث موانع مسئولیت کیفری بحث را آغاز کنیم. در مباحث موانع مسئولیت کیفری، اولین مثالی که هم فقها و هم حقوقدانان دارند بحث طفولیت است که خود طفل بودن یکی از موانع مسئولیت کیفری است. اما سؤالی که ما در اینجا داریم این است که آیا اساساً در سیستمهای دارای هوش مصنوعی میتوان آنها را همانند یک طفل قلمداد کرد؟ تعریفی که حقوقدانان غربی دارند این است که میگویند سیستمهای دارای هوش مصنوعی دو قسم هستند؛ یک سیستمهای دارای هوش مصنوعی ثابت که دیگر تحول و تکاملی ندارند، یکسری هم سیستمهای دارای هوش مصنوعی توسعهپذیر هستند. در این توسعهپذیرها میگویند از زمانی که هوش مصنوعی فعالیت خودش را آغاز میکند تا رسیدن به آن زمان اصطلاحاً بلوغ و تکامل یک زمانی را طی میکند و حتی برای آن ساعت هم میگویند. میگویند سنی که برای هوش مصنوعی به تکامل رسیده هست، ۲۶۴ ساعت پس از فعالیت است. میگویند که کمتر از ۲۶۴ ساعت فعالیت هوش مصنوعی دارای ظرفیتهای روانی تصمیمگیری نیست. بنابراین آن دوران زیر ۲۶۴ ساعت را دوران طفولیت سیستمهای دارای هوش مصنوعی میدانند و نتیجه این میشود که اگر ربات هوش مصنوعی زیر ۲۶۴ ساعت مرتکب جرمی شود در واقع یک طفل هوش مصنوعی است که جرمی را مرتکب شده و ما میتوانیم با ادبیات حقوقی و فقهی خودمان آن را یک طفل قلمداد کنیم و مسئولیت کیفری را شامل حال خود آن سیستم ندانیم و به سراغ سازنده، کاربر و طراحانی برویم که آن سیستم داشته است.
دومین عاملی که ما در زمرهی عوامل مسئولیت کیفری یا موانع مسئولیت کیفری داریم، فقدان قوّهی خودکنترلی است که غربیها به آن Loss of self-control میگویند که اگر این قدرت را برای کنترل خودش نداشته باشد، مسئولیت کیفری هم ندارد. توجه بفرمایید این موضوع به این معنا است که باید ببینیم آیا هوش مصنوعی اساساً قوّهی خودکنترلی دارد یا ندارد؟ باز پایهی بحث ما به این برمیگردد که ما سیستم هوش مصنوعی را یک سیستم هوش مصنوعی توسعهپذیر و اصطلاحاً قوی بدانیم که خودش یک درک و ادراکات و فعل و انفعالات سیستمی دارد. در همین زمینه میگویند اگر این سیستم هوش مصنوعی میتوانست خودش را در وضعیتی قرار ندهد که مرتکب جرم بشود و این کار را نکرد و خودش را در وضعیتی گذاشت که مرتکب جرم شد، مسئولیت کیفری شامل این میشود. ما شبیه به این را در بحثهای فقهی داریم که میگویند: «الامتناع بالإختیار لا ینافی الإختیار». یعنی هوش مصنوعی که الان در جایی آمده که نباید حضور پیدا میکرد و الان دچار یک اشتباه شده و دیگر کنترل خودش را از دست داده و دارد به کسی صدمه میزند، چون ورود و آمدنش به اینجا ورود اختیاری بوده است. این امتناعی که الان حاصل شده منافی الاختیار نیست. مرحوم شیخ انصاری در رسائل وقتی این بحث اختیار و اصطلاحاً امتناع اختیاری را مطرح میفرماید، میگوید: «یرجع بالأخره إلی الإختیار». میگوید این امتناعی که الان برای این فرد حاصل شده، بالأخره به یک اختیار سابق برمیگردد. یعنی خودش با دستان خودش، خودش را در این وضعیت انداخته است. پس مسئول است. این هم دومین عاملی است که باید به آن توجه داشته باشیم.
سومین عاملی که گفته میشود بحث جنون است که ما در مباحث اشخاص حقیقی میگوییم که خود جنون یکی از موانع مسئولیت کیفری است. آیا در مورد سیستمهای هوش مصنوعی اساساً میتوانیم این حرف را بزنیم؟ میگوییم: بله. ما اگر جنون را به معنای اختلال عملکردی سیستم فکری بگوییم که البته خود این تعاریف زیادی دارد، ولی در مورد هوش مصنوعی میگوییم که یک اختلالی در سیستم تجزیه - تحلیل هوش مصنوعی به وجود آمده است و این شبهجنون در انسانهای عادی است. به این شرط که ما این اختلال را در حدی بدانیم که دیگر اختیار آن سیستم هوش مصنوعی را تضعیف کند و از بین ببرد. یعنی باید جنون و آن اختلال در اینجا به حدی برسد که آن قوّهی عاقله و تصمیمگیر هوش مصنوعی را کلاً کات کند و کنار بگذارد.
چهارمین موضوعی که ما در مباحث موانع مسئولیت کیفری در مورد اشخاص میگوییم، حالت مستی است که حالتی است که فرد در حالت طبیعی نیست. آیا در مورد هوش مصنوعی این قابل تجزیه و تحلیل هست یا نه؟ بله.
من در اینجا یک مثالی میزنم؛ شما یک ربات نظامی را تصور بفرمایید که مبتنی بر سیستمی هوش مصنوعی ساخته شده است، این تحت حملهی شیمیایی یا شبهشیمیایی قرار میگیرد و این حملههای شیمیایی باعث میشود که گازهای سمی سیستم هوش مصنوعی را دچار اختلال کنند، شبیه به همان اختلال عملکردی که مسکرات و مشروبات الکلی روی سیستم یک انسان میگذارد که او دچار توهم و اشتباه تصمیمگیری میشود و اصلاً ممکن است که خودش را هم از بین ببرد. در اینجا هم شبیه به همین را حقوقدانان غربی میگویند. میگویند که ممکن است چنین رباتی در این فضا قرار بگیرد، سیستم عملکردی آن به خاطر استنشاق گازهای سمی و شیمیایی دچار یک توهم شود و اتفاقاً یک فردی را که در حقیقت شهروند عادی بوده به عنوان دشمن تلقی کند و آن را از بین ببرد. بنابراین در سیستمهای هوش مصنوعی هم میتوانیم این موضوع را ببینیم. من عرض کنم که این بحث ادامه دارد و انشاءالله در فرصت بعدی در خدمتتان هستم.
مجری: متشکرم. جناب آقای دکتر سخاوتیان، از نظر فقهی به چه شکلی است؟ آیا میتوان دفاعیات موجه یا مشروعی را جهت تبرئهی سیستمهای دارای هوش مصنوعی از نظر فقهی اعمال دانست یا خیر؟
- آقای سخاوتیان
ما وقتی میخواهیم دفاعیات را به هوش مصنوعی نسبت دهیم و اصطلاحاً بگوییم که اینجا دافع یا رافع شد؟ ابتدا باید ببینیم که اصلاً خود جرم به چه کسی منتسب میشود؟ بله، ما اگر هوش مصنوعی را یک چیز مستقلی در بیرون بدانیم، کمااینکه بسیاری از افراد اینگونه تصور دارند، میتوانیم دفاعیاتی را هم از حیث رافع و هم از حیث دافع به آن نسبت دهیم، اما مطلب این است که با توجه به مبانی که در جلسات گذشته بیان کردیم، هوش مصنوعی عملاً هیچگاه جدا از انسان معنا پیدا نمیکند. آنچه که امروزه تحقق دارد، هوش مصنوعی ضعیف است و هیچکسی هم نمیتواند آن را انکار کند و بگوید امروز هوش مصنوعی قوی تحقق دارد. نخیر، آنچه که تحقق دارد هوش مصنوعی ضعیف است و هوش مصنوعی قوی شاید در آینده تحقق پیدا بکند. این چیزی است که خیلی از بزرگان در عرصهی هوش مصنوعی آن را بیان میکنند و ما با مبانی که در جلسات گذشته بیان شد، توضیح دادیم که اگر بخواهیم هوش مصنوعی قوی را تصور کنیم، باز هم مستقل از انسان معنا نخواهد شد. استاد قائمینیا در اینجا یک نظریهای دارند که اصطلاحاً به آن هوش مصنوعی تطفلی میگویند. تطفلی یعنی چه؟ یعنی هوش مصنوعی مانند طفلی است. هر قدر هم بزرگ شود و رشد کند، مانند یک طفلی است که دستش در دست پدرش است و پدرش هم در اینجا همان انسان است که خالق و مبدع این دستگاه است. حالا این دستگاه ممکن است به صورت ربات یا هر نوع فناوری دیگر باشد. مستقل از انسان معنا نمیشود. پس این بحث دافع و رافع در جرایم و دفاعیات هوش مصنوعی باید به یک موجودی که بر این هوش مصنوعی سیطره دارد نسبت داده شود. خودبهخود به مرحلهی قبل میرود. در مرحلهی قبل در اینجا یک کاربر داریم و ماقبل کاربر هم یک طراح و بهینهساز داریم. باید ببینیم این جرمی که صورت گرفت ابتدا به کدامیک از اینها منتسب میشود، از باب همان سبب أقوایی که قبلاً بیان کردیم که آیا مباشر در اینجا أقوی میشود یا سبب أقوی میشود؟ هر کدام که أقوی شد، دافع و رافع باید به آن نسبت داده شود، نه به این هوش مصنوعی که خودش به عنوان یک ابزار در اختیار آن شخص است. اگر این جرم ناشی از آن طراحی و بهینهسازی باشد، پس منتسب به آن میشود، اگر این جرم ناشی از کاربر باشد، آن طراح و بهینهساز خطایی نداشته، بلکه این کاربر بود که در استفاده از این دچار خطا شد. در اینجا جرم به این کاربر انتساب پیدا میکند. پس این کاربر باید به عنوان دافع یا رافع برای خودش دفاعیات ارائه کند.
البته باز هم این تذکررا میدهیم، همانطوری که در جلسات گذشته گفتیم باز هم آن را بیان میکنیم و در آینده هم بیشتر بیان خواهیم کرد تا دوستان به این نکته دقت داشته باشند. ما وقتی که صحبت از هوش مصنوعی میکنیم، هوش مصنوعی فناوری دادهها و الگوریتمها است. تمام تلاش در هوش مصنوعی این است که کاری شبیه به ذهن انسان انجام دهد. البته در یک تعریف این است و برخی هم میگویند که کاری شبیه به هوشمندی نظام طبیعت انجام دهد. اگر بخواهیم تمام اینها را انجام دهیم، ابتدا باید ببینیم که ذهن چیست، مغز چیست؟ یعنی آن چیزی که انسان در اختیار دارد و با آن تفکر میکند و به تبع آن دست به عمل میزند، حالا این عمل ممکن است منجر به جرم شود و ممکن است نشود، ماقبل آن یک فکری هست که آن فکر تبدیل به این فعل میشود. یک اندیشهای هست که آن اندیشه تبدیل به کنش، تبدیل به واکنش و رفتار میشود. در اینجا باید ببینیم آنچه که سبب میشود چیست؟ اگر ذهن است، اگر مغز است، تفاوت ذهن و مغز در چیست؟ در اینجا چند تا دیدگاه هست و آن دیدگاه رایج که در عرصهی هوش مصنوعی تقریباً به رسمیت شناخته شده این است که ذهن همان مغز است و یا در بهترین حالت بگوییم که ذهن عمل مغز است. اگر این را بپذیریم خیلی شبیه به انسان میشود، حالا درست است یا نه، باید در برنامهی نقد و نظر و در برنامههای مشابه این به آن بپردازیم، ولی بههرحال برخی این مبنا را پذیرفتهاند. در ذهن انسان، در مغز انسان یک پدیدهای به اسم نورونهای عصبی داریم که آن را به اسم پرسپترونها الگوبرداری میکنند و در هوش مصنوعی تلاش دارند پیاده کنند. آیا واقعاً این تحقق دارد یا ندارد بحثهای بعدی است، چون در نگاه ما و مبنای ما این است که هوش مصنوعی هر قدر هم که قدرت پیدا کند صرفاً یک ابزار است. این ابزار شبیه به مغز شاید کار کند، مغز هم ابزار است، معدّ است، اطلاعات را جمعآوری و پردازش میکند، اما آنچه که واقعاً مُدرک است و از معدّ فراتر میرود، ذهن انسان است و ذهن انسان هم تحت تدبیر روح انسان است و ما وقتی که انسان را دارای روح میدانیم، تا زمانی که هوش مصنوعی دارای روحی شبیه به روح انسانی نشود، چیزی مستقل از انسان نخواهد بود، لذا تمام این جرایم منتسب به موجودی میشود که دارای روح انسانی باشد، تدبیر روح انسانی را داشته باشد و به تبع آن ذهن انسانی داشته باشد تا بتواند تدبیر کند. اما در مرتبهی مغز آیا تسامحتاً میتوان پذیرفت یا نه، باید به پژوهشهای دقیقتر واگذار کنیم.
مجری: متشکرم. آقای دکتر عندلیب، ظاهراً موانع مسئولیت کیفری باقی مانده، در خدمتتان هستیم.
- آقای عندلیب
قبل از اینکه ادامهی موانع مسئولیت کیفری را عرض کنم، اولین مانعی که ما عرض کردمی بحث طفولیت بود، شاید برای شنوندگان ما این سؤال پیش آید که آیا به صورت مطلق طفل مجازات نمیشود؟ یا مجازات او متفاوت است؟ من اجازه میخواهم یک نگاهی به قانون مجازات اسلامی خودمان داشته باشیم، چون من عرض کردهام که ما فعلاً دربارهی سیستمهای هوش مصنوعی تقنین و قانونگذاری مستقلی نداریم، و فعلاً باید از عمومات استفاده کنیم و مباحث مطرح شود، همچنین که این بحث در مباحث کیفری مفید فایده است. مادهی ۸۸ میگوید: دربارهی اطفال و نوجوانانی که مرتکب جرایم تعزیری میشوند - جرایم تعزیری جرایمی است که عموماً در بیان شارع مجازات خاصی برای آنها بیان نشده و حکومت به اقتضای زمان و مکان مجازات تعیین میکند - و سن آنها در زمان ارتکاب ۹ تا ۱۵ سال تمام شمسی باشد. یعنی قانونگذار ایران برای بچههای ۹ تا ۱۵ ساله هم مجازات در نظر میگیرد. میگوید دادگاه یکی از تصمیمات زیر را اتخاذ میکند. یکی که تصمیم به والدین یا اولیاء یا سرپرست قانونی است، معرفی به مددکار اجتماعی و روانشناس، معرفی به یک مؤسسهی آموزشی و فرهنگی، اقدام لازم جهت درمان، جلوگیری از معاشرت و ارتباط مضر با دیگران، جلوگیری از رفتوآمد طفل یا نوجوان به محلهای معین، تسلیم به اشخاص حقیقی یا حقوقی، نصیحت به وسیلهی قاضی، اخطار و تذکر کتبی و سختترین مورد هم نگهداری در کانون اصلاح و تربیت است. هر چند اینها جنبههای تربیتی دارد ولی در نگاه حقوقی به آنها مجازات میگوییم ولی مجازاتهای متناسب با اطفال است. بنابراین برای شنوندگان ما شبهه ایجاد نشود که بچهها به صورت مطلق مجازات ندارند، تبصرهی ۲ این ماده هم جالب است که میگوید: هر گاه نابالغ مرتکب یکی از جرایم موجب حد یا قصاص کرد، در صورتی که از ۱۲ تا ۱۵ سال قمری داشته باشد، به یکی از اقدامات مقرر در بندهای ت و یا ث همین ماده محکوم میشود و در کانون اصلاح و تربیت نگهداری میشود.
بنابراین این نکته در نظر ما باشد که اگر ما از مانع بودن طفولیت میگوییم به این معنا نیست که کلاً مجازاتی ندارد. قانونگذار مجازات متناسب با حال خودش را دیده است.
عامل دیگری که در موانع مسئولیت کیفری بحث میشود، اشتباه موضوعی است. همانطور که مستحضر هستید، ما در فقه دو تا موضوع و یا دو تا شبهه داریم که یکی شبههی موضوعی و یکی هم شبههی حکمی است که گاه فرد در موضوع اشتباه میکند و گاه هم در حکم اشتباه میکند. دقیقاً ما همین بحث را از فقه در حقوق هم داریم که این فرد مرتکب دچار اشتباه موضوعی یا دچار اشتباه حکمی میشود. در مورد سیستمهای دارای هوش مصنوعی، این چطور قابل تصور است؟ تصور بفرمایید که ما یک سربازی داریم که مبتنی بر هوش مصنوعی ساخته شده است. این سرباز در میدان نبرد باید نسبت به سربازان دشمن کار دفاعی یا تهاجمی انجام دهد، یکی دیگر از سربازان هوش مصنوعی و یا یکی از انسانها، چون شاید در آینده شاهد جنگهای ترکیبی باشیم که هم انسانها هستند و هم هوش مصنوعیها و رباتها هستند. در اینجا یکی از سربازهای انسانی ما و یا هوش مصنوعی ما دقیقاً خودش را مشابه سربازان دشمن کرده است و این ربات هوش مصنوعی ما دچار اشتباه موضوعی میشود و فکر میکند که این همان است. سرباز خودی را دشمن فرض میکند و بر همین اساس اقدام میکند. شبیه به این را در مورد انسانها داریم. مثال زدم و یک پروندهی قضایی هم که من چند سال پیش در مرکز تحقیقات مطالعه میکردم این بود که یک فردی خودش میخواست فرد دیگری که قاتل هست را قصاص کند. یعنی از اولیاء دم بود، هر چند که این خودش خلاف قانون است ولی از نظر شرعی نسبت به او و از نظر قانونی مهدور الدم است، البته به خاطر نظم اجتماعی قانونگذار برای این فرد که خودسرانه اقدام به قصاص نکند مجازات تعیین کرده است ولی دیگر قصاص نمیشود. یعنی اگر کسی از اولیاء دم، کسی که نسبت به او مهدور الدم حساب میشود، آن را از بین ببرد، مجازات دارد ولی دیگر قصاص نمیشود، چون مهدور الدم را از بین برده است. این بنده خدا به خانهی آن کسی میرود که اثبات شد مهدور الدم است، درِ خانه را میزند و فرد دیگری که برادر یا پسرعموی او بوده و شباهت زیادی به این آقا داشته و هوا هم تقریباً تاریک بوده، میآید و درب را باز میکند و این آقا فکر میکند که خود قاتل است و همانجا ایشان را متأسفانه میکند. اینجا یک اشتباه موضوعی است، برای او شبهه شده است. البته بین قضات بحث شد که این رفتار او چگونه رفتاری است، کوتاهی کرده یا نکرده است؟ من وارد آن بحثها نمیشوم، فقط میخواهم برای اشتباه موضوعی مثال بزنم که این همانطور که در مردم عادی وجود دارد، در سیستمهای هوش مصنوعی هم امکان دارد و شاید در اینجا اختلال بیشتر و قویتر هم باشد.
نکتهی بعدی و ششمین عاملی که ما به عنوان مانع مسئولیت کیفری میدانیم، اشتباه حکمی است. اشتباه حکمی برداشت نادرست از قانون یا جهل به قانون است. خب حقوقدانان یک جملهی معروفی دارند که جهل به قانون رافع مسئولیت نیست. فقها هم میفرمایند که؛ جهلی که ناشی از تقصیر انسان و کوتاهی انسان باشد عذر نیست. فقها این را عذر نمیدانند، حقوقدانان هم میگویند که وقتی قانون انتشار پیدا کرد و ابلاغ شد، چه شما بخوانید و چه نخوانید، جهل شما رافع مسئولیت نیست.
در اینجا یک بحثی دارند که اگر برداشت نادرست از قانون بود و اگر نسبت به قانون بیاطلاع بود چه میشود؟ من برای اینکه باز بحث شنوندگان ما روی مباحث حقوقی تمرکز کند، میگویم. ما در جرایم حدی میگوییم متهم و مرتکب هم باید علم به موضوع داشته باشد و هم باید علم به حکم داشته باشد. برای همین قضات محترم وقتی که میخواهند در جرایم حدی تفهیم اتهام کنند، هم موضوع را میپرسند و هم حکم را میپرسند که میگویند آیا شما میدانستید که این مسئله در شریعت حرام است یا نه؟ در جرایم حدی اینطور است. این به خاطر همین شبهه است که اگر مرتکب شبههی موضوعی یا حکمی داشته باشد نمیتوان بر او مسئولیتی را بار کرد. در سیستمهای دارای هوش مصنوعی هم همین را میگوییم. میگوییم که اگر سوابق این سیستم را بررسی کنیم و ببینیم که این سیستم دارای هوش مصنوعی در آن دیتاها و در آن اطلاعاتی که داشته، نسبت به این قانون آگاهی نداشته است. برای او تعریف نشده است که این جرم است. بنابراین ما در اینجا نمیتوانیم سیستم دارای هوش مصنوعی را در اینجا مجازات کنیم. چون در آن دادهها و اطلاعات این برای او به عنوان یک جرم معرفی نشده بود.
مجری: متشکرم. جناب آقای دکتر سخاوتیان، با توجه به چیزی که در قسمت قبل گفتیم، آیا قابلیت اعمال این دفاعیات عام در سیستمهای هوش مصنوعی از نظر فقهی وجود دارد یا خیر؟
- آقای سخاوتیان
در قسمت قبل بیان کردیم که اصل آن را قبول نداریم. چرا؟ چون ما معتقدیم که هوش مصنوعی دارای اختیار مستقل از انسان هرگز نخواهد شد. ولی با این پیشفرض که حالا اگر بشود چه میشود؟ ببینید چیزی که غربیها دارند بیان میکنند، خودش دچار خودتناقضی است. کمااینکه جناب استاد دکتر عندلیب هم در انتهای صحبتهایشان اشارهای به این مطلب داشتند. ایشان در انتهای صحبت چه فرمودند؟ گفتند که؛ این مطلب به عنوان دیتا و به عنوان داده در هوش مصنوعی به عنوان جرم تعریف نشده بود. وقتی که تعریف نشده بود پس مجرم نیست. این جمله دقیقاً مناقض با هوش مصنوعی قوی است. چرا؟ گفتیم که هوش مصنوعی قوی کلاندادهای را به صورت کامل دارد، الگوریتمهایش کامل است و دقیقاً مثل انسان کار میکند. تنها تفاوتش با انسان در چیست؟ انسان آن کلانداده را ندارد و یا تحت تأثیر شرایط محیطی قرار میگیرد و دچار اختلال میشود، بیمار میشود و الخ، در نتیجه خطایی در محاسبه از او سر میزند، اما هوش مصنوعی قوی به یک کلاندادهای دسترسی دارد و الگوریتمهایی که متناسب با خودش است، لذا این هوش مصنوعی قوی با آن کلاندادهها و با آن الگوریتمهایی که در آن وجود دارد، دقیقاً میداند که در چه موقعیتی باید قرار بگیرد و در چه موقعیتی نباید قرار بگیرد. اینکه بگوییم در یک موقعیتی قرار گرفت و بیمار شد، در یک موقعیتی قرار گرفت و دچار اختلال موضوعی شد، در یک موقعیتی قرار گرفت و دچار اختلال حکمی شد، این اصلاً هوش مصنوعی قوی نیست. چرا؟ چون آن کلاندادهها شکل نگرفته است. اصلاً لازمهی پیدایش هوش مصنوعی قوی آن کلاندادهها است. اختلال موضوعی به این معنا است که هوش مصنوعی قوی شکل نگرفت. چرا؟ چون کلاندادههایش کامل نیست و یا اگر کلاندادههایش کامل باشد، الگوریتمهایش کامل نیست.
مجری: آقای دکتر، یک سؤال دارم؛ الان هوش مصنوعی با توجه به دادههایی که در دنیای اطلاعات وجود دارد، یعنی با توجه به دیتاهایی که در دنیا وجود دارد باید تحلیلی انجام دهد، این هوش مصنوعی که شما میفرمایید تحت عنوان هوش مصنوعی قوی وجود ندارد، چطور با آن دادهها ارتباط نمیگیرد و احکام را به عنوان... .
ببینید هوش مصنوعی توصیهپذیر یا توضیحپذیر Explainable AI که مطرح میشود، یک هوش مصنوعی یادگیرنده است. یعنی شما ۲-۳ بار یک کاری را انجام دهید، با این الگوی تکرار خودش یک مطلبی را یاد میگیرد و دفعهی بعد هم انجام میدهد. اینطور هست و ما این را انکار نمیکنیم، این توان یادگیری را دارد، کمااینکه در آزمون تورینگ هم مطرح میشود. اما این تکرارها و یادگیریها نیاز به یک راهبر و اپراتور دارد. آن اپراتور انسانی است که این تکرارها را تنظیم میکند و اگر خودش بخواهد تنظیم کند در یک شرایطی قرار میگیرد که اصطلاحاً به آن عدم اطمینان میگویند و تمام بزرگان هوش مصنوعی اقرار دارند که در شرایط عدم اطمینان هوش مصنوعی توقف میکند تا آن اپراتور یا آن راهبر این را برای او تعریف کند. چرا عدم اطمینان میشود؟ چون یک بار اتفاق افتاد و ۲-۳ یا ۴ بار نیست. حتی گاهی اوقات ۲-۳ یا ۴ بار هم جای شک دارد.
ما در جلسات اولیه بیان کردیم که هوش مصنوعی تجلی یک فلسفهی خاص است و کاملاً هم درست است، آن فلسفه هم فلسفهی تحلیلی است. اگر ما بخواهیم هوش مصنوعی را با توجه به فلسفهی قارهای تحلیل کنیم، اصلاً چیزی به اسم تکرار معنا ندارد که او بخواهد از تکرار یاد بگیرد. یعنی دقیقاً که دارد یاد میگیرد، با نگاه فلسفهی قارهای اشتباه دارد یاد میگیرد. چرا؟ چون در فلسفهی قارهای بیان میشود که هر پدیدهای نسبت به خودش جدید است و دومی ندارد. وقتی من که الان در اینجا نشستهام، با منِ ۱۰ دقیقه دیگر متفاوت باشم، اصلاً چیزی به نام تکرار معنا ندارد که این بخواهد الگو بگیرد. یعنی اگر ما بخواهیم با نگاه فلسفهی قارهای وسط بیاییم، کار خیلی گره میخورد. ما وارد این فضا نمیشویم. در نگاه تبیینی خودش میمانیم که همان فناوری در همان بستری است که شکل گرفت. وقتی که کلاندادههایش ناقص باشد، اشتباه موضوعی شکل میگیرد. کمااینکه جناب آقای دکتر عندلیب اشاره کردند، وقتی که کلاندادههایش ناقص باشد، اشتباه حکمی شکل میگیرد. وقتی که کلاندادهاش کامل باشد، الگوریتمش هم درست باشد، دیگر اشتباه حکمی و اشتباه موضوعی در هوش مصنوعی معنا نخواهد داشت. وقتی که معنا نداشته باشد، اگر جرمی از آن سر زد، این جرم ناظر به چه کسی خواهد شد؟
- آقای عندلیب
البته اینکه اطلاعات داشته باشد، با اینکه بعداً بتواند تصمیم بگیرد، تلازمی با هم ندارد. نکته این است که زمانی شما میگویید اطلاعات اولیه دارد ولی بعداً قدرت تجزیه و تحلیل دارد، این قوی بودن بعدی را نفی نمیکند، انسان هم همینطور است. انسان هم وقتی به مدرسه میرود یاد میگیرد، در دانشگاه تحصیل میکند، اطلاعات را جمع میکند، ولی در مرحلهی عمل ممکن است در این تجزیه و تحلیلها یا اشتباه موضوعی یا اشتباه حکمی کند.
مجری: مثل همان ۲۶۴ ساعتی که شما فرمودید.
بله، مثل ۲۶۴ ساعتی که عرض کردم. یعنی امکان این را دارد. انسان هم مختار است. من با تقسیم مسئولیت موافق هستم، ممکن است ما در این کاوشهایی که میکنیم به این نتیجه برسیم و بگوییم که تقسیم مسئولیت کنیم، سازندهای که این اطلاعات را داده ناقص داده، اما این هوش مصنوعی قوی در زمان تجزیه و تحلیل، خودش هم نقصان و تقصیری دارد، تقسیم مسئولیت کنیم.
- آقای سخاوتیان
ببینید آقای دکتر، شما بحث هوش مصنوعی ضعیف را مطرح میکنید و نتیجهی هوش مصنوعی قوی را میگیرید. این دقیقاً تناقض است. میدانید چرا؟ ببینید وقتی شما میگویید اطلاعات و دادهها ناقص است، هنوز هوش مصنوعی قوی نیست. اگر دادهها و اطلاعات کامل باشد، طراحیها کامل باشد، شاید هوش مصنوعی قوی بشود. اینکه الان دادههایی را دارد، فرض کنیم که اصلاً کلاندادهی اصلی و مطلوب شکل گرفته است، زمانی که شکل گرفت، اگر آن الگوریتمها اختلال داشته باشند، هنوز هوش مصنوعی قوی نشده است.
- آقای عندلیب
حالا ممکن است یک اشتباهی باشد، چون به ۱۰۰ که نرسیده است.
- آقای سخاوتیان
تعریف هوش مصنوعی قوی چیست؟ هوش مصنوعی است که از انسان مستقل میشود، یعنی تمام کارها را مثل انسان میتواند انجام دهد و نیازی به اپراتور انسانی نباشد. همین که نیاز به اپراتور انسانی و راهبر انسانی پیدا کرد، دیگر هوش مصنوعی قوی نیست. یعنی خودش دارد یاد میگیرد. شما در تعریف هوش مصنوعی قوی چه میگویید؟ میگویید هوشی است که همانند انسان کار میکند و دوم اینکه مستقل از انسان هم باشد. ما در تعریف خودمان گفتیم که مستقل از انسان را قبول نمیکنیم ولی همانند انسان را قبول میکنیم. آن دیگر متفاوت است. پس این چیزی که شما گفتید اصلاً هوش مصنوعی قوی نیست.
مجری: متشکرم. جناب آقای عندلیب، یک خلاصهی کوتاه از بحث امروزمان بفرمایید.
- آقای عندلیب
ما از نقطه نظر حقوقی موانع مسئولیت کیفری را مطرح کردیم که قرار شد به عنوان اعمال دفاعیات عام بحث شود و ما طفولیت، فقدان قوّهی خودکنترلی، جنون، مستی، اشتباه موضوعی و اشتباه حکمی را به عنوان ۶ عامل مانع مسئولیت کیفری عرض کردیم و ما گفتیم که با تشبیهاتی که از حقوق داخلیمان و حقوق غربی میتوان در این بحث به فکر گذاشت این است که میتوان این موانع را در اینباره گفت، هر چند که از نظر فقهی جناب آقای دکتر سخاوتیان در بعضی از این مباحث اشکال داشتند و فرمودند که ما اساساً نمیتوانیم بعضی از اینها را بپذیریم و نقطهی اصلی در فرمایشات جناب آقای دکتر سخاوتیان این است که ما مسئولیت را متوجه سازندگان، طراحان و کاربران کنیم.
مجری برنامه: مجید لاهیجانی امیری
تنظیم: محمد رسول صفری عربی










نظر شما