علمی فناوری 09:49 - 26 مهر 1404
سردبیر نشریه نیچر به تازگی مقاله‌ای درباره سوء استفاده از هوش مصنوعی برای تولید تصاویر نانومواد منتشر کرده است.

مرز باریک میان واقعی؛ هشدار درباره تصاویر نانومواد تولیدشده با هوش مصنوعی

باشگاه خبرنگاران جوان - رشد خیره‌کننده هوش مصنوعی، اکنون ساخت تصاویری از نانومواد با جزئیاتی واقعی‌تر از همیشه تنها با چند دستور ساده ممکن شده است. پژوهشگران هشدار می‌دهند که این توانایی، در کنار مزایای علمی فراوان، تهدیدی جدی برای صداقت پژوهش‌های علمی در حوزه نانو به‌شمار می‌آید.

به نقل از ستاد ویژه توسعه فناوری نانو، در شماره جدید مجله Nature Nanotechnology، نویسنده چنین عنوان کرده که هوش مصنوعی می‌تواند تصاویر میکروسکوپی از نانوساختار‌هایی خلق کند که حتی متخصصان نیز قادر به تشخیص جعلی بودن آنها نیستند. این مسئله، پرسشی اساسی را پیش روی جامعه علمی قرار داده است: چگونه می‌توان در عصر هوش مصنوعی، مرز میان کشف علمی و جعل داده را از هم تفکیک کرد؟

در این مقاله، زنگ خطری جدی برای دنیای علم به صدا درآمده است. در این مقاله دیدگاه‌محور، با اشاره به گسترش ابزار‌های هوش مصنوعی مولد، نگرانی ا از احتمال سوءاستفاده از این فناوری در مقالات علمی، به‌ویژه در حوزه سنتز و شناسایی نانومواد، اعلام شده است.

به گفته نویسنده، تنها با چند ساعت آموزش و چند دستور متنی ساده، هوش مصنوعی می‌توان تصاویر میکروسکوپی نیروی اتمی (AFM) و میکروسکوپ الکترونی (EM) از نانوساختار‌هایی ساخت که عملاً از تصاویر واقعی قابل‌تشخیص نیستند. این فناوری حتی قادر است تصاویری از «نانومواد خیالی» ـ مانند ساختار‌هایی موسوم به نانوچیتوس ـ تولید کرد. در این مقاله از خوانندگان خواسته شده است که خود بیازمایند آیا می‌توانند میان تصویر واقعی و جعلی تفاوتی بیابند یا نه.

هر چند چنین قابلیتی شگفت‌انگیز به‌نظر می‌رسد، اما در واقع هشداری است در مورد آسیب‌پذیری اخلاق علمی. در گذشته، جعل تصاویر میکروسکوپی مستلزم مهارت فنی و صرف زمان زیاد بود، اما اکنون ابزار‌های هوش مصنوعی در چند ثانیه می‌توانند داده‌هایی کاملاً ساختگی و در عین حال باورپذیر تولید کنند. نویسندگان تأکید می‌کنند که خطر اصلی، نه در توانایی فناوری بلکه در استفاده نادرست از آن توسط پژوهشگرانی است که ممکن است برای کسب اعتبار، تصاویر جعلی در مقالات خود منتشر کنند.

راهکار پیشنهادی این گروه، آموزش و فرهنگ‌سازی است. آنان می‌گویند تربیت علمی باید از دوران کارشناسی آغاز شود و در مقاطع تحصیلات تکمیلی با آموزش دقیق اصول اخلاق پژوهش ادامه یابد. از نگاه آنان، «یک آزمایشگاه سالم» یعنی جایی که دقت علمی، راستی‌سنجی داده‌ها و تعهد به صداقت، بخشی از هویت روزمره پژوهشگران باشد. نویسندگان این مقاله پیشنهاد می‌کنند که دوره‌های آموزش «تمامیت پژوهش» (research integrity) باید برای همه دانشجویان دکتری در سراسر جهان اجباری شود.

مقاله یادشده همچنین به سه محور اصلی تخلف در پژوهش اشاره دارد: سرقت علمی، تحریف داده و جعل نتایج. تصاویر تولیدشده با هوش مصنوعی، چنان‌چه به‌عنوان داده واقعی منتشر شوند، مصداق کامل جعل علمی خواهند بود.

اما در کنار خطرات، ابزار‌های هوش مصنوعی خود می‌توانند بخشی از راه‌حل باشند. ناشران بزرگ علمی، از جمله اسپرینگر نیچر (Springer Nature)، اکنون از نرم‌افزار‌های هوشمند برای شناسایی جعل و دست‌کاری تصاویر استفاده می‌کنند. در مجلات خانواده Nature، تمامی مقالات زیست‌علوم پیش از پذیرش، با استفاده از ابزار هوش مصنوعی موسوم به Proofig مورد بررسی قرار می‌گیرند تا هر گونه دست‌کاری احتمالی آشکار شود. فرآیند مشابهی نیز در مجلات Science اجرا می‌شود.

با این حال، نویسندگان یادآور می‌شوند که نظام داوری علمی هرگز برای کشف تقلب طراحی نشده است؛ این نظام بر اعتماد متقابل میان پژوهشگران استوار است. آنان معتقدند حفظ این اعتماد، مسئولیتی جمعی است که بر دوش همه نهاد‌های علمی، دانشگاه‌ها، ناشران و حتی دولت‌ها قرار دارد. همکاری نزدیک‌تر میان توسعه‌دهندگان ابزار‌های هوش مصنوعی و متخصصان اخلاق پژوهش می‌تواند گامی مؤثر در حفظ سلامت علم باشد.

در بخشی از مقاله به گفته‌ای از ریچارد فاینمن، فیزیک‌دان برجسته آمریکایی، اشاره شده است: «حقیقت، دیر یا زود آشکار می‌شود. دیگران آزمایش شما را تکرار می‌کنند و درستی یا نادرستی آن را خواهند سنجید. شهرت علمی پایدار، تنها از صداقت به‌دست می‌آید.»

در پایان مقاله تأکید شده است که هوش مصنوعی در نقطه‌ای حساس از تاریخ علم ظاهر شده است؛ زمانی که پژوهش‌های پر سرعت و داده‌های عظیم، مغز انسان را به چالش کشیده‌اند. این فناوری، اگر درست به‌کار گرفته شود، می‌تواند خلاقیت، دقت و سرعت علم را چندین برابر کند. اما اگر در مسیر نادرست گام بردارد، ممکن است اعتماد به علم را متزلزل سازد؛ اعتمادی که سنگ‌بنای پیشرفت بشری است.

منبع: ایرنا


12235218
 
پربازدید ها
پر بحث ترین ها

مهمترین اخبار علمی فناوری

علمی فناوری
«باشگاه خبرنگاران» شرکت‌های فضایی جهانی به سرعت رویای ایجاد اولین مستعمره انسانی در مریخ را دنبال می‌کنند. اما در پشت این برنامه‌های بلندپروازانه، نبردی شدید و وجودی علیه محیط خشن و بی‌رحم فضا نهفته است.
علمی فناوری
«باشگاه خبرنگاران» در پی نشست دو جانبه بین ایران و آذربایجان پروتکل هماهنگی‌های فرکانسی در نواحی مرزی برای شبکه‌های تلفن همراه، بین دو کشور بروز رسانی و امضا شد.
علمی فناوری
«باشگاه خبرنگاران» سلول‌ها در هنگام مرگ، ردپایی از خود به جا می‌گذارند. دانشمندان یک «ردپای مرگ» میکروسکوپی کشف کرده‌اند که نه تنها به سیستم ایمنی بدن در پاکسازی سلول‌های مرده کمک می‌کند، بلکه می‌تواند به ویروس‌ها راه جدیدی برای گسترش عفونت نیز بدهد.
علمی فناوری
«باشگاه خبرنگاران» تاریخ و محل انجام مصاحبه از معرفی‌شـدگان چند برابر ظرفیت رشته‌ تحصیلی نیمه‌متمرکز فوریت‌های پزشکی پیش‌بیمارستانی در آزمون کاردانی به کارشناسی ناپیوسته سال ۱۴۰۴ از سوی سازمان سنجش آموزش کشور اعلام شد.
علمی فناوری
«باشگاه خبرنگاران» وزیر بهداشت در بیانیه‌ای نسبت به پیامد‌های فاجعه‌بار تحریم‌های بین‌المللی بر سلامت عمومی هشدار داد و تحریم‌ها را عامل «بحران خاموش سلامت» خواند که مستقیم جان غیرنظامیان را تهدید می‌کند و خواستار اقدام فوری جامعه جهانی شد.
علمی فناوری
«باشگاه خبرنگاران» واتس‌اپ به زودی محدودیت ماهانه در ارسال پیام‌هایی که مخاطبین پاسخ نداده‌اند را آزمایش خواهد کرد.
علمی فناوری
«باشگاه خبرنگاران» دانشمندان برای اولین بار آب سنگین را در یک قرص سیاره‌زا در اطراف یک ستاره جوان کشف کردند.
علمی فناوری
«باشگاه خبرنگاران» سازمان امور دانشجویان ایران فهرست جدید دانشگاه‌های مورد تایید وزارت علوم برای سال ۲۰۲۶ را اعلام کرد.
علمی فناوری
«باشگاه خبرنگاران» وزیر آموزش و پرورش گفت: ۶۲ هزار بسته ورزشی برای مدارس روستایی و مناطق محروم آماده و توزیع شد.
علمی فناوری
«باشگاه خبرنگاران» دانشمندان می‌گویند بیماری‌های مهلک آلزایمر و سرطان ممکن است به زودی با صدا‌هایی که نمی‌توانیم بشنویم، درمان شوند.

مشاهده مهمترین خبرها در صدر رسانه‌ها

صفحه اصلی | درباره‌ما | تماس‌با‌ما | تبلیغات | حفظ حریم شخصی

تمامی اخبار بطور خودکار از منابع مختلف جمع‌آوری می‌شود و این سایت مسئولیتی در قبال محتوای اخبار ندارد

کلیه خدمات ارائه شده در این سایت دارای مجوز های لازم از مراجع مربوطه و تابع قوانین جمهوری اسلامی ایران می باشد.

کلیه حقوق محفوظ است