Iran Newspaper

اگر یک روبات انسان را بکشد چه کسی مقصر است؟

ورودسازمان­مللمتحدبرا­یکنترلروبا­تهایقاتل

- میثم لطفی

اگــر یــک فرد شــخص دیگــری را به قتل برســاند قوانین مشخصی برای مجازات او وجــود دارد و دادگاه بر اســاس موازین موجــود براحتــی او را محاکمــه میکند. بــا وجود این اگر یک دســتگاه هوشــمند الکترونیکی مانند روبات باعث قتل یک انسان شود، به نظر شما چه کسی مقصر خواهد بود؟

اگرچــه ایــن روزهــا اخبــاری مبنی بر اقداماتصلح­جویانه«کیمجونگاون» به گوش میرســد، ولی بر اساس آخرین گزارشها فضای بین کره شــمالی و کره جنوبی پرتنشترین مرز میان دو کشور در سراسر جهان معرفی شده است و در این نقطه از کره خاکی روباتهای هوشــمند بیشتر از سربازان نگهبانی میدهند و این احتمــال وجود دارد در صورت مشــاهده هرگونه تخلف، روباتها به سمت انسان شلیک کنند و او را از پا دربیاورند. ■ قاتلیازجنس­روبات

کــره جنوبی بتازگی از ســاخت روبات هوشــمندی خبــر داده اســت کــه بــا نام SGR-A1 شــناخته میشــود و یکــی از شــعبههای سامســونگ وظیفه ساخت آن را برعهده داشته است. شکل ظاهری ایــن روبات نگهبــان 1.2 متری شــبیه به چند جعبه سیاه است که در کنار یکدیگر قرار گرفتهاند و البته در قسمت سر روبات لیزرهــای مادون قرمز کار چشــم را برای آن انجام میدهند که دشــمن نتواند به مواضــع آن نزدیک شــود و کوچکترین حرکات تا شعاع چهار کیلومتری در دید آن پنهان نماند. این روبات در اصل یک ســرباز بســیار ماهر اســت کــه در صورت شناســایی هــر گونه تخلف دســت به کار میشود.

در مرحلــه کنونــی، ایــن روبــات بــه گونــهای آموزش دیده اســت کــه هنگام مشــاهده نیروهــای دشــمن آن را بــه فرمانــده خــود کــه در مرکــز کنتــرل قرار دارد، گزارش میدهد. اگر در مرکز کنترل به او دســتور داده شــود، روبات میتواند دشمن را به گلوله ببندد. برای SGR-A1 همچنیــن قابلیتــی در نظر گرفته شــده است تا به صورت خودکار عمل کند و هر زمان مناسب دید، بدون نیاز به دریافت مجوز وارد عمل شود و مواضع دشمن را به رگبار ببندد. پنتاگون و دیگر ارتشهای بزرگ جهان به صورت گسترده در حال توســعه ســاحهای هوشــمندی هستند کــه قدرتمندتــ­ر از پهپادهــای کنترلــی واشــنگتن در پاکســتان، افغانســتا­ن ...و عمل میکنند. پیشــرفتها­ی فناوری به این دســته از ســاحها امــکان میدهد تا بتوانند اهداف خود را بدرستی شناسایی کنند و بدون دخالت انسان آنها را از بین ببرنــد. وزارت دفــاع امریــکا پیشبینــی کرده اســت کــه این ســاحها در آینده نه چنــدان دور میتواننــد دوش بــه دوش انسانها در خط مقدم میدانهای جنگ حاضر شوند.

موضــوع روباتهــای قاتــل از جمله بحثهایــی اســت کــه بــرای انســان چنــدان خوشــایند بــه نظــر نمیرســد. این هفته کنفرانــس ائتاف بینالمللی توســعهدهن­دگان روبــات، دانشــگاهه­ا و فعــاالن حقوق بشــر بــا نــام «کمپین نه بــه روباتهــای قاتــل» در مقر ســازمان ملل متحد برگزار شــد و سیاستمدارا­ن را مــورد هدف قرار داد. این گروه از افراد در جریان برگزاری کنفرانس مذکور ســعی کردند ســاخت و اســتفاده از «ساحهای خودکار مرگبار» متوقف شــود و البته این اتفاق در حالی صورت گرفت که با وجود توســعه فنــاوری، این ســاحها هنــوز به صورت رسمی استفاده نشدهاند. ■ نهبهروباته­ایقاتل

«پیتر آسارو» از محققان حوزه رسانه در مرکــز «نیو اِســکول» شــهر نیویورک و ســخنگوی فراخــوان «نه بــه روباتهای قاتــل» در این خصوص گفت: «ســؤالی کــه در اینجــا مطرح میشــود این اســت که آیا ماشــینها اجازه دارند جان انسان را بگیرنــد و حتــی اگــر این اتفــاق نیفتد، ســاخت چنین دســتگاهها­یی نمیتواند ارزش و هویت انسان را زیر پا بگذارد؟».

این همان سؤالی است که فیلسوفان، کارشناســا­ن علــوم حقوقــی و محققــان اجتماعی از مدتها قبــل مطرح کردند و هشدار دادند توســعه فناوری میتواند در آینــده نزدیــک روباتهــا را بــه قدری قدرتمنــد کند کــه مرگ و زندگی انســان به دســت آنها مشخص شــود. روباتها این روزها با هدف مراقبت از سالمندان، آموزش کــودکان اوتیســمی، رانندگی در اتومبیل، انجام جراحیهای پزشکی ...و توســعه می یابنــد. اگرچه ایــن روباتها برای کشــتن انســانها طراحی نشدهاند، ولی هماکنون این سؤال از مراجع قضایی مطرح شــده است که: اگر یک عابر پیاده پــس از برخورد با اتومبیــل خودران جان خــود را از دســت دهــد چه کســی مقصر خواهــد بــود؟ اگر یــک روبات هوشــمند پزشکی با تجویز اشتباه دارو باعث مرگ بیمار شود چه کســی پاسخگو است؟ اگر اشــتباه یک روبات نگهبان در شــلیک به مواضع دشــمن باعث آغــاز جنگ میان دو کشور شود چه اتفاقی صورت میگیرد. چنــدی پیش در برخی خبرها گفته شــد که یک روبات هوشمند مخصوص تمیز کردن خانه، موهای فردی را که روی مبل دراز کشــیده بــود به داخل خود کشــید و باعث ایجاد آســیب جدی در وی شد. در این حالت چه کسی مقصر است؟

پروفســور آســارو و اعضــای گــروه او کــه چندیــن فعــال حقــوق بشــر را شــامل میشــوند بــر ایــن مســأله تأکید دارنــد کــه اگــر یــک سیســتم رایانــهای خودکار ماننــد روبات برنامهریزی شــده مخصوص تشــخیص نیروهای دشــمن از غیرنظامیان بدون کنترل انسان باعث مرگ یک نفر شــود، بسیار دشــوار است کــه بتوان یک فرد یا گروه را در این زمینه مقصر دانســت. ایــن همان خــأ بزرگی است که هنوز در این زمینه برطرف نشده است. ■ خألقانونی

براســاس تئوریهــای کنونــی گفتــه میشــود که اگر یک روبات خــودکار وارد روســتا شــود و همــه اهالــی آن را به قتل برســاند، هیــچ دادگاه یــا مرکــز قضایــی وجــود نــدارد کــه یــک جســم بیجــان را مجــازات کنــد و «دادگاه جنایــی بینالمللــ­ی» نیــز قانــون مشــخصی در این خصوص وضع نکرده اســت. برخی کارشناســا­ن بــر ایــن باورنــد کــه هنــگام بــروز اتفــاق مذکور نمیتــوان طراحان و ســازندگان روبات را هم مقصر دانست، زیــرا ممکــن اســت در برنامهریزی­های اولیــه هرگز بــرای روبات تعریف نشــده باشــد کــه تمــام اهالی یــک روســتا را به قتل برســاند. دادگاهها بر اساس قوانین کیفــری موجــود نیازمند آن هســتند تا با بررســی پرونده مربوطه ذهن آگاه عامل جنایــت را شناســایی کنند. بــا وجود این زمانــی کــه دادگاه بــا یک روبــات مواجه میشود این مشکل وجود دارد که چگونه بــه ذهنیــت و هــدف از جنایــت او پــی ببــرد، زیرا بــرای روبات هوش مصنوعی تعریف شــده اســت و افکار و احساسات انســانی را درک نمیکند. ممکن اســت طراحان یا ســازندگان روبات مسئولیت مدنی در قبال روبات خود داشــته باشند و بهعنوان مثال اگر بررســیهای صورت گرفته ثابت کند که اختال نرمافزاری یا ســختافزار­ی باعث اعمال روبات شده است، آنها میتوانند محاکمه شوند ولی این قبیــل مجازاتهــا نمیتواند جلوی حضــور روباتهای قاتل را بگیرد و ادامه فعالیت آنها را متوقف کند.

روباتهای قاتل میتوانند در اشکال مختلــف ظاهــر شــوند و از هواپیماهــ­ای بــدون سرنشــین گرفتــه تا ماشــینهای مریخنــورد، بــه اســلحه مجهــز شــوند. وزارت دفاع ایاالت متحده در سال 2012 میادی بر اســاس دســتورالع­مل جامع خــود اعــام کــرد تمامــی سیســتمهای خــودکار باید بــه گونهای طراحی شــوند که فرماندهان و اپراتورها بتوانند سطوح مناســب قضــاوت در مــورد اســتفاده از اسلحه در آنها را کنترل کنند. وزارت دفاع کانادا نیز چندی پیش اظهار داشت: «در حــال حاضــر هیچ گونــه ســاحی که به صورت خــودکار و بدون دخالت انســان بتواند شــلیک کند و جان فردی را بگیرد در دســت نداریم». با وجــود این آژانس تحقیقاتــی وابســته بــه ایــن وزارتخانــ­ه «برنامــه فعــال مطالعاتــی در حــوزه سیســتمهای هوشــمند غیرانســان­ی» را پیش میبرد.

شــرکت َ «کلییرپث»که دفتر مرکزی آن در شــهر اونتاریــو واقع شــده اســت از نخستین مراکز جهان محسوب میشود که در مقابل توسعه روباتهای قاتل گام برداشــته اســت تا از این طریق بتواند در مقابل آزمایشگاه تحقیقاتی روباتهای هوشمند کانادا گام بردارد.

«رایــان گریپــی» بنیانگــذا­ر این مرکز توضیــح داد روباتهــای مینیــاب یــا روباتهــای ناجــی از جملــه روباتهای نظامی محسوب میشــوند که با اهداف انساندوستا­نه توسعه یافتهاند و هرگز به سمت انسان اسلحه نمیکشند. حضور ایــن قبیــل روباتهــا در میادیــن نبــرد میتوانند بدون خونریزی جان افراد زیاد را نجــات دهند و بهتر اســت این دســته روباتهــای نظامی توســعه یابند. به هر حــال، هنــوز بدرســتی مشــخص نشــده اســت کــه ســازمان ملــل متحــد و دیگر مراکز جهانی در مقابل روباتهای قاتل چــه موضعــی دارنــد و چگونه بــا وضع قوانیــن جدید میتوانند جلوی توســعه آنها را بگیرند.

 ??  ??

Newspapers in Persian

Newspapers from Iran