واکاوی خردکشی دیجیتال امکان ترور هدفمند با فناوری
ابزار اپل: همایش هوش مصنوعی برای خردکُشی بعنوان یک نشست تخصصی و میان رشته ای امروز در دانشگاه علم و صنعت ایران به بررسی کاربست های پرخطر هوش مصنوعی در حوزه های امنیتی و سیاسی پرداخت.
به گزارش ابزار اپل به نقل از مهر، محور اصلی این رویداد، تحلیل ادعای استفاده از فناوری های پیشرفته و سامانه های مبتنی بر هوش مصنوعی در ترور دانشمندان و تضعیف سرمایه های علمی کشورهاست؛ موضوعی که از آن به عنوان نمونه ای از «خِرَدکُشی» در عصر فناوری یاد می شود.
خیزش در مقابل خردکشی تلاشی برای برگرداندن علم به مسیر خدمت به بشریت است
میثم فرج اللهی، استاد دانشگاه علم و صنعت ایران و عضو هیأت اجرایی همایش «خیزش در مقابل خردکشی»، با اشاره به تحولات خردادماه کشور و ترور تعدادی از دانشمندان و اساتید دانشگاه، از تشکیل حرکتی خودجوش از جانب استادان دانشگاه های کشور اطلاع داد. وی اظهار نمود: بعد از اتفاقاتی که در خردادماه رخ داد و بعضی از دانشمندان و اساتید دانشگاه توسط آن چه استکبار جهانی خوانده می شود مورد تهاجم و ترور قرار گرفتند، تعدادی از اساتید دانشگاه های کشور به شکل خودجوش حرکتی را با عنوان "خیزش در مقابل خردکشی" شروع کردند. هدف این خیزش آن بود که نخبگان جامعه بین الملل را با خود همراه کند و این پرسش اساسی را مطرح سازد که چرا علم و تکنولوژِی، که باید در خدمت رفاه و آسایش بشر باشد، امروز به ابزاری برای ترور، نسل کشی و تهاجم به کشورها تبدیل گشته است. فرج اللهی با اشاره به برگزاری اولین رویداد بین المللی این جریان اضافه کرد: برای اولین بار در کشور، همایش بین المللی «خیزش در مقابل خردکشی» در ۱۷ مهرماه در مرکز تحقیقات فیزیک نظری و ریاضیات برگزار گردید. در این رویداد، مهمانان، سخنرانان و عرضه دهندگان مقالاتی از بیشتر از ۳۰ کشور جهان حضور داشتند و این همایش به نظر می آید نقطه آغازی برای تشکیل نهضتی در جامعه نخبگانی دنیا در مقابل نظمی باشد که از علم و فناوری برای تهدید و ترور استفاده می نماید. به نقل از ایشان، آن همایش سرآغازی برای تداوم این حرکت از راه برگزاری نشست های تخصصی بوده است. قرار بر این شد که نشست های تخصصی با محوریت حوزه های فناورانه برگزار شود؛ بخصوص در زمینه هوش مصنوعی که فناوری فراگیر عصر حاضر است. متاسفانه این فناوری به جای آن که در خدمت رفاه بشر باشد، در مواردی در خدمت ترور قرار گرفته و شواهد مختلفی وجود دارد که در جنگ ۱۲ روزه تحمیلی ضد جمهوری اسلامی ایران از این تکنولوژی استفاده شده و دانشمندان ما با استفاده از آن مورد تهاجم قرار گرفته اند. عضو هیأت اجرایی همایش خاطرنشان کرد: نشست امروز، اولین نشست تخصصی بعد از همایش بین المللی مهرماه است و امیدواریم این روند ادامه دار باشد. در ادامه هم فناوری های مختلف مورد بررسی و تحلیل قرار خواهند گرفت تا این خیزش در سطح اجتماع بین المللی با هدایت اساتید دانشگاه تداوم یابد. فرج اللهی همین طور با تقدیر از حضور رسانه ها اظهار داشت: برنامه امروز به شکل زنده از برخی رسانه ها پخش خواهد شد و امیدواریم این همراهی رسانه ای هم استمرار داشته باشد.
خیزش فرزانگان ضد خردکشی تلاشی برای رویارویی با سوءاستفاده از علم در راه سلطه است
علیرضا سالاری، عضو هیأت اجرایی همایش در ادامه با انتقاد از آن چه روند مستمر ترور دانشمندان در دهه های اخیر خواند، تاکید کرد: در مقابل سوءاستفاده از دستیافته های علمی برای سلطه و کشتار، جامعه دانشگاهی باید مسئولانه وارد میدان شود. وی در سخنانی با اشاره به تحولات دهه های گذشته گفت: در رویارویی با قدرت یابی ملت های تحت سلطه، نقاب های پیشین آزادی خواهی آمریکا و نیروی نیابتی آن یعنی رژیم صهیونیستی فرو افتاده و طی حدود ۸۰ سال قبل در ادامه رویکرد های تفتیش گرایانه، در فلسطین، عراق، سوریه، یمن و دیگر کشورهای اسلامی شاهد ترور گسترده اندیشمندان و فرزانگان بوده ایم. سالاری با اشاره به حوادث خردادماه گذشته اضافه کرد: آخرین و شنیع ترین جلوه این روند، حمله و کشتار شماری از فرزانگان ایرانی بود که به نقل از ایشان، در نیمه شب و در کنار خانواده هایشان هدف قرار گرفتند. همین طور زیرساخت های علمی و پژوهشی ملت ها هم مورد حمله قرار گرفته است. عضو هیات اجرایی همایش با به کار بردن اصطلاح «خردکشی» یا «سوفیساید» برای این اقدامات، خاطرنشان کرد: این جنایات به امری عادی و حتی مشروع در نظم بین المللی موجود تبدیل گشته و نهادهای برآمده از این نظم هم واکنش مؤثری نسبت به آن نشان نداده اند. به نقل از ایشان، در مهرماه گذشته و به همت تعدادی از دانشگاهیان و فرهیختگان، همایشی با عنوان «خیزش فرزانگان ضد خردکشی» انجام شد که هدف آن، پاسداشت یاد دانشمندان جان باخته و طراحی نظمی علمی و فناورانه مبتنی بر خردورزی و اخلاق انسانی بود. سالاری اضافه کرد: شرکت کنندگان در این همایش، ترور دانشمندان را اقدامی ناشی از هراس از پیشرفت ملت های بیدار دانستند که با سوءاستفاده از مهم ترین دستیافته های علمی بشر، همچون هوش مصنوعی، فناوری های هوافضا و ارتباطات صورت می گیرد. آنان همین طور تاکید کردند که کشتار دانشمندان، علاوه بر چپاول منابع فعلی ملت ها، با هدف مصادره آینده آنان صورت می گیرد. وی با اشاره به اینکه این نتیجه گیری مسئولیتی سنگین بر دوش جامعه علمی جهان می گذارد، اظهار داشت: دانشمندان باید ضمن محکومیت صریح این روند، برای پیشگیری از حاکمیت رویکرد های قدرت طلبانه در مراکز علمی و جایگزینی اخلاق انسانی به جای سلطه جویی تلاش کنند. سالاری همین طور به وضعیت برخی مناطق همچون غزه و دیگر کشورهای اسلامی اشاره نمود و مدعی شد: نظم استعماری و استبدادی حاکم، نه فقط حق آزادی ملت ها بلکه حق اندیشیدن و حتی حق حیات آنان را هم برنمی تابد. وی با تکیه بر ضرورت هم افزایی دانشگاهیان جهان خاطرنشان کرد: این همایش از تمام دانشمندان آزاده دعوت می کند تا در مقابل هرگونه بهره کشی از دستیافته های علمی برای تداوم کشتارها بایستند و برای تشکیل به نظمی آکادمیک و فناورانه عادلانه تلاش کنند؛ نظمی که در آن علم در خدمت کرامت، پیشرفت و آزادگی همگانی باشد. عضو هیأت اجرایی همایش در انتها با اشاره به برگزاری نشست تخصصی با تمرکز بر هوش مصنوعی اظهار داشت: گردهمایی امروز مجالی برای هم فکری در رابطه با این پرسش اساسی است که چطور می توان از تبدیل هوش مصنوعی ـ به عنوان یکی از عالی ترین دستیافته های خرد انسانی ـ به ابزاری ضد خود دانشمندان جلوگیری کرد. همین طور بررسی سوءاستفاده از داده های ملت ها برای آموزش این فناوری و راه های رویارویی با آن، از دیگر محورهای مورد توجه این جلسه است.
هوش مصنوعی همزمان فرصت قدرت ساز و تهدید خرد انسانی است
جلال دهقانی فیروزآبادی، دبیر شورای راهبردی امور خارجه، در نشست تخصصی «هوش مصنوعی و خردکشی» با تکیه بر مسئولیت علم و عالمان در عصر تکنولوژی های جدید اظهار داشت: علمِ رها از اخلاق و مسئولیت می تواند خود به ابزاری برای کشتار تبدیل گردد. وی در آغاز سخنان خود با اشاره به مفهوم «خرد» گفت: خرد را می توان هم به مفهوم علم و هم به مفهوم خردمندان درنظر گرفت؛ در خیلی از موارد، هر دو هدف قرار می گیرند؛ هم انسان ها و هم عالمان. دهقانی فیروزآبادی با اشاره به یکی از پیش فرض های عصر مدرن اضافه کرد: از عصر روشنگری این تصور وجود داشت که هرچه علم پیشرفت کند، امنیت انسان بیشتر می شود؛ اما تجربه تاریخی نشان داد علمِ عاری از اخلاق و مسئولیت نه فقط امنیت آفرین نیست، بلکه می تواند به ابزار تهدید تبدیل گردد. بدین سبب هم علم مسئول است و هم عالمان.
سوءاستفاده تاریخی از علم
دبیر شورای راهبردی امور خارجه با مرور نمونه هایی از تاریخ معاصر خاطرنشان کرد: خیلی از دانشمندان برای رفاه و آسایش بشر علم تولید کردند، اما دیگران از آن سوءاستفاده کردند؛ از علوم هسته ای که به بمب اتم انجامید تا دانش بیوشیمی که به سلاح های شیمیایی و بیولوژیک و حتی فناوری های ژنتیکی تسلیحاتی منجر گردید. علم به همان اندازه که می تواند رفاه و توسعه بوجود آورد، می تواند خطرناک باشد. وی تصریح کرد که حتی در غرب هم اولین حرکت های اعتراضی ضد تسلیحاتی شدن علم، از جانب خود دانشمندان شکل گرفت؛ همچون ابتکاراتی که به کنفرانس های پاکواش و بعدها به تشکیل معاهدات محدودکننده سلاح های هسته ای انجامید.
ژئوپلیتیک هوش مصنوعی و قدرت داده بنیاد
دهقانی فیروزآبادی با تکیه بر اهمیت راهبردی هوش مصنوعی اظهار داشت: هوش مصنوعی یکی از مهم ترین دستیافته های بشر است که می تواند در خدمت امنیت و تعالی انسان باشد؛ اما همزمان خود به عنصر قدرت ملی تبدیل گشته است. امروز از ژئوپلیتیک هوش مصنوعی سخن گفته می شود؛ یعنی رقابت قدرت های بزرگ برای تولید، توزیع و کنترل داده. وی ادامه داد: نظام بین الملل آینده بر پایه قدرت داده بنیاد شکل خواهد گرفت و برخی باور دارند داده در قرن بیست ویکم همان نقشی را ایفا می کند که نفت در قرن بیستم داشت. همین طور هوش مصنوعی را باید بخشی از سومین انقلاب صنعتی ـ نظامی دانست. به قول او، خطر هوش مصنوعی در بعضی ابعاد حتی از تسلیحات هسته ای هم بیشتر است، چونکه امکان هدف گیری دقیق و ترورهای نقطه ای را فراهم می آورد و رویارویی با آن هم دشوارتر است.
چالش های هوش مصنوعی برای خرد انسانی
دبیر شورای راهبردی امور خارجه در ادامه سلطه فناوری و داده بر انسان در سطح فردی و جمعی، تضعیف عاملیت، اراده و قدرت تصمیم گیری انسان، کاهش قدرت معناسازی، تفکر نقاد و خلاقیت انسانی تقویت عقلانیت فقط ابزاری مبتنی بر محاسبه هزینه ـ فایده، امکان هک شناختی و دستکاری افکار عمومی و خلق «فراواقعیت» و تضعیف روابط انسانی را برخی صدمه های هوش مصنوعی دانست و هشدار داد: اگر انسان را موجودی ناطق و عاقل بدانیم، هر روندی که به تضعیف عقلانیت بینجامد، نوعی زوال خرد انسانی خواهد بود.
خطر آپارتاید علمی و تسلیحاتی شدن هوش مصنوعی
دهقانی فیروزآبادی با اشاره به احتمال ایجاد انحصار در حوزه هوش مصنوعی اظهار داشت: همان گونه که در حوزه هسته ای شاهد تشکیل رژیم های محدودکننده و تبعیض آمیز بودیم، امکان دارد در حوزه هوش مصنوعی هم نوعی آپارتاید علمی و رژیم های تحمیلی قدرت محور شکل گیرد. وی تسلیحاتی شدن هوش مصنوعی، تولید سلاح های خودمختار و استفاده از این تکنولوژی در جنگ های خودکار را از مهم ترین تهدیدها برشمرد و اضافه کرد: اتوماسیون جنگ و به کارگیری هوش مصنوعی برای ترور، همچون مخاطرات جدی است که باید مورد توجه جامعه علمی قرار گیرد. دبیر شورای راهبردی امور خارجه با تکیه بر نقش پیشگام جامعه دانشگاهی اظهار داشت: قانونمندکردن استفاده ایمن از هوش مصنوعی لازمست، اما این قوانین باید به شکل دموکراتیک و با مشارکت همه کشورها تدوین شود، نه در چارچوب رژیم های تحمیلی. وی پیشنهاد کرد علاوه بر سازوکارهای رسمی بین المللی، تشکل های علمی و دانشگاهیِ فراملی هم برای رویارویی با سوءاستفاده و تروریسم مبتنی بر هوش مصنوعی شکل گیرند؛ الگویی مشابه جنبش های علمی ضدتسلیحاتی در دهه های گذشته. دهقانی فیروزآبادی در انتها تاکید کرد: ممنوعیت تروریسم هوش مصنوعی، منع به کارگیری آن ضد غیرنظامیان و مراکز علمی، و رویارویی با تبعیض و آپارتاید علمی باید در دستور کار جامعه علمی جهان قرار گیرد. بالاترین سطح خشونت ضد علم، حذف فیزیکی دانشمند است و این مسئولیت دانشمندان را برای صیانت از علم و اخلاق دوچندان می کند.
آینده نظم جهانی در رقابت داده ها و الگوریتم ها رقم می خورد
حامد خسروانی، کارشناس و متخصص فناوری و هوش مصنوعی، در همایش «هوش مصنوعی و خردکشی» با تکیه بر ضرورت مواجهه عمیق و فلسفی با پدیده های نوظهور اظهار داشت: برای فهم درست هوش مصنوعی باید آنرا از چهار منظر هستی شناسی، معرفت شناسی، انسان شناسی و فرجام شناسی مورد بررسی قرار داد. وی با اشاره به اینکه هر پدیده نوینی در زمینه سیاست نیازمند شناخت دقیق ابعاد وجودی خود است، گفت: قبل از آن که بپرسیم چه چیزی می توانیم بسازیم، باید بپرسیم مقرر است در چه جهانی بسازیم و جایگاه انسان و ماشین در آن جهان چیست. خسروانی در تبیین بُعد معرفت شناختی هوش مصنوعی اضافه کرد: مسائلی مانند قصد، ادراک و ریشه مندی معنا مطرح می شود. آیا سامانه های هوش مصنوعی واقعا درکی از جهان دارند یا فقط مبنی بر الگوهای آماری خروجی تولید می کنند؟ وقتی یک سیستم می گوید این رنگ قرمز است، آیا تجربه ای از سرخی دارد یا فقط یک توکن پردازشی را بازتولید می کند؟ تفاوت میان معرفت انسانی و پردازش ماشینی دقیقا در همین نقطه آشکار می شود. وی با اشاره به بحث «کوالیا» خاطرنشان کرد: تجربه پدیدارشناختی درد یا آگاهی انسانی قابل تقلیل به محاسبه صرف نیست و اینجا باید مرز میان ذهن انسانی و ماشین را به درستی بشناسیم. این متخصص فناوری در قسمت انسان شناسی سخنان خود تاکید کرد: مسئله این نیست که هوش مصنوعی جای انسان را می گیرد یا نه؛ بلکه باید تعریف خود از انسان را بازبینی نماییم. انسان فقط یک ماشین محاسباتی نیست و دارای ساحت های گوناگون معرفتی و معنوی است. حتی پیشرفته ترین سامانه های هوش مصنوعی تنها بخش محدودی از توان ذهنی انسان را پوشش می دهند. وی در ادامه، با اشاره به پروژه مدرنیته در ریاضی سازی جهان، تصریح کرد: هوش مصنوعی این پروژه را به سطح بالاتری رسانده است؛ اما پرسش اساسی اینست که آیا سیاستِ مبتنی بر بهینه سازی عددی و مدیریت داده ها می تواند بازهم فضیلت، معنا و سعادت انسانی را محقق کند؟
ظهور «لیویاتان دیجیتال» و تمرکز قدرت
خسروانی با اشاره به تمرکز قدرت در زیرساخت های داده ای و شرکتهای فناور اظهار داشت: امروز با نوعی لیویاتان دیجیتال مواجه هستیم. قدرت در مراکز پردازش داده و شبکه های فناورانه متمرکز شده و پرسش اصلی اینست که چطور می توان این قدرت را محدود و پاسخگو کرد. وی خاطرنشان کرد: مسئله ما نفی استفاده از هوش مصنوعی نیست؛ استفاده از آن ضرورت دارد. پرسش اینست که چه کسی، با چه غایتی و تحت چه محدودیتی از آن بهره می برد. اگر فناوری، فرجام سیاست را تعیین کند، امر سیاسی به مدیریت داده تقلیل می یابد؛ اما اگر سیاست، جهت فناوری را تعیین کند، هوش مصنوعی می تواند در خدمت آزادی، عدالت و معنا قرار گیرد. این کارشناس هوش مصنوعی با اشاره به تحولات ژئوپلیتیکی اضافه کرد: جهان درحال عبور از نظم ۸۰ ساله مبتنی بر دولت ـ ملت و نهادهای کلاسیک بین المللی به نظمی شبکه ای، داده محور و فناورانه است. در این گذار، هوش مصنوعی فقط ابزار نیست؛ بلکه موتور معماری قدرت در قرن بیست ویکم است. وی از تشکیل مفهوم «قدرت ترکیبی» سخن گفت و توضیح داد: قدرت آینده تلفیقی از سخت افزار، زیرساخت فناورانه و قدرت نرم دیجیتال خواهد بود. اسناد امنیتی قدرت های بزرگ هم نشان داده است که هوش مصنوعی به یکی از محورهای اصلی رقابت ژئوپلیتیکی تبدیل گشته و مرزهای سایبری و حاکمیت داده ها اهمیتی بیشتر از مرزهای جغرافیایی یافته اند.
نقد سوءاستفاده امنیتی از فناوری های دیجیتال
خسروانی با انتقاد از آن چه استفاده تلفیقی از ابزارهای اطلاعاتی و دیجیتال برای هدف گیری دانشمندان ایرانی خواند، گفت: ادعاهای در ارتباط با آزادی اطلاعات و امنیت ارتباطات زمانی بی اعتبار می شود که همان زیرساخت ها برای شناسایی، هدف گیری و عملیات دقیق مورد سوءاستفاده قرار گیرد. وی به برخی ابزارهای جاسوسی شناخته شده در فضای رسانه ای اشاره نمود و اظهار داشت: امروز فناوری های نفوذ به شبکه های مخابراتی، جمع آوری کلان داده و تحلیل مبتنی بر یادگیری عمیق می تواند به شناسایی دقیق اهداف انسانی منجر شود. ترکیب این ابزارها با سامانه های تحلیلی، امکان ترور هدفمند را بیشتر می کند.
مسئولیت جامعه علمی در بزنگاه تاریخی
خسروانی در انتها تاکید کرد: در این بزنگاه تاریخی، جامعه علمی که خود مولد دانش و فناوری است، می تواند با طراحی چارچوب های حقوقی و فناورانه جدید، از تشکیل چرخه های ناسالم قدرت جلوگیری نماید. کشورها و جوامع مستقل با تجمیع ظرفیتهای علمی خود می توانند به سمت ایجاد یک چرخه امن، اخلاق مدار و عادلانه برای تولید و بهره برداری از فناوری حرکت کنند. وی تصریح کرد: هوش مصنوعی می تواند ابزار سلطه باشد یا ابزار رهایی؛ این بستگی دارد که چه نظمی آنرا هدایت کند و چه اراده ای بر آن حاکم باشد. بطور خلاصه فرج اللهی همینطور با قدردانی از حضور رسانه ها عنوان کرد: برنامه امروز بشکل زنده از برخی رسانه ها پخش خواهد شد و امیدواریم این همراهی رسانه ای هم استمرار داشته باشد. حامد خسروانی، کارشناس و متخصص فناوری و هوش مصنوعی، در همایش هوش مصنوعی و خردکشی با تاکید بر ضرورت مواجهه عمیق و فلسفی با پدیده های نوظهور عنوان کرد: برای فهم درست هوش مصنوعی باید آن را از چهار منظر هستی شناسی، معرفت شناسی، انسان شناسی و فرجام شناسی مورد بررسی قرار داد. پرسش این است که چه کسی، با چه غایتی و تحت چه محدودیتی از آن بهره می برد.
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب