Web Analytics Made Easy - Statcounter

 ویدئو‌ها یا تصاویر جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی ساخته می‌شوند و گاهی آنقدر واقعی به نظر می‌رسند که تشخیص آنها از واقعیت دشوار است. این فناوری بار‌ها مشکل‌ساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کرده‌اند. با پیشرفت فناوری، تشخیص محتوای جعلی هر روز دشوارتر می‌شود و کارشناسان حوزه فناوری در تلاش هستند تا راه‌هایی برای شناسایی و پیشگیری از آسیب‌های جعل عمیق پیدا کنند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

به تازگی عکسی جعلی از یک زن مسن در شبکه اجتماعی فیسبوک منتشر شده است که مقابل کیک تولد ۱۲۲ سالگی خود نشسته و شرح عکس چنین است: «من از پنج سالگی پختن کیک را آغاز کردم و می‌خواهم همچنان آن را ادامه دهم.» این عکس بیش از ۴۰ هزار بار به اشتراک گذاشته شده، ۲۰ هزار کامنت گرفته و ۱۰۰ هزار واکنش دریافت کرده است. عکس مورد اشاره بی‌شک جعلی است و با هوش مصنوعی ساخته شده، یکی از شمع‌ها روی کیک نیست و در هوا شناور است و حباب‌های بی‌شکل و عجیبی در پس‌زمینه عکس دیده می‌شود. عواقب منفیِ فراگیر شدن محتوایی مانند عکس این کیک تولد، بسیار کم است، زیرا هر چه هوش مصنوعی مولد بهتر و بهتر می‌شود، به دوران پایان تشخیص محتوا‌های جعلی بیشتر نزدیک می‌شویم. انگار در حال مسابقه دادن با زمان هستیم.

رشد سریع هوش مصنوعی و کمبود راه‌حل‌های موجود

آیا سرانجام می‌توانیم راه‌هایی جدید و قطعی برای تشخیص محتوا‌های جعلی از موارد واقعی پیدا کنیم؟ مایک اسپیرز (Mike Speirs) از مؤسسه مشاوره هوش مصنوعی «فَکالتی‌ای آی» که در زمینه نظارت بر اطلاعات نادرست و جعلی فعالیت دارد می‌گوید: «مدل‌های هوش مصنوعی با چنان سرعتی در حال توسعه هستند که از نظر فنی باورنکردنی و هشداردهنده است و بنابراین ما برای شناسایی آنها زمان کم می‌آوریم. برای تشخیص تصاویر جعلی انواع مختلفی از تکنیک‌های دستی وجود دارد برای مثال، غلط‌های املایی در متن، پوست ناهمگون، چشم‌های غیرطبیعی و یا دست‌ها نمونه‌های خوبی برای تشخیص عکس و محتوا‌های ساخته‌شده با هوش مصنوعی هستند؛ اما حتی چنین موارد واضحی هم زمان‌بر هستند، چون مدل‌ها هر روز بهتر می‌شوند.»

به‌روزرسانی نرم‌افزار‌های پیشرو

مولد تصویر دال-ای (Dall-E) متعلق به اُپن‌ای آی از سال ۲۰۲۱ سه نسخه منتشر کرده است که هر کدام نسبت به نسخه قبلی قابلیت‌های بیشتری دارند و در کنار آن مدل رایگان و منبع باز استیبل دیفیوژن (Stable Diffusion) نیز نسخه سوم خود را منتشر کرده است.

نسخه ششم میدجِرنی (Midjourney) و مدل جمنای گوگل نیز به این موج از فناوری پیوسته‌اند. هرچه این فناوری قوی‌تر می‌شود استفاده از آن هم آسان‌تر می‌شود. جدیدترین نسخه دال-ای در چت جی‌پی‌تی و بینگ نیز تعبیه شده و در این میان گوگل ابزار‌های خود را به رایگان در اختیار کاربران قرار می‌دهد.

تکاپوی غول‌های فناوری برای تشخیص محتوای جعلی

سیل تولید رسانه‌های جدید، واکنش شرکت‌های فناوری را برانگیخته است و غول‌های فناوری، چون بی‌بی‌سی، گوگل، مایکروسافت و سونی در تلاش هستند که برای تأیید منشأ و اصالت محتوا ائتلاف کنند و استاندارد‌هایی را برای برچسب‌گذاری محتوا‌های تولیدشده با هوش مصنوعی تعیین کنند.

در همین راستا، اُپن‌ای آی در فوریه گذشته اعلام کرد که چنین موازینی را برای دال-ای اتخاذ خواهد کرد. اکنون، تصاویر تولید شده توسط این ابزار دارای یک برچسب قابل مشاهده و واترمارک قابل خواندن توسط ماشین است. متا نیز برای افزودن برچسب‌های خود به محتوای تولیدشده توسط هوش مصنوعی دست‌به‌کار شده است و می‌گوید که پست‌هایی را که برچسب ندارند حذف خواهد کرد. چنین سیاست‌هایی ممکن است به مقابله با فراگیرشدن اطلاعات نادرست یا شوخی‌های اقلیتی در اینترنت کمک کند.

اسپیرز می‌گوید: «چنین اقداماتی می‌تواند امنیت کاذب ایجاد کند و اگر مردم به دیدن چنین برچسب‌هایی عادت کنند، شاید به طور ناخودآگاه دیگر به آنهایی که برچسب ندارند اعتماد نکنند.»

آیا برچسب‌گذاری و واترمارک بازدارنده است؟

بنابراین برچسب‌گذاری می‌تواند مشکل‌ساز شود، چون یک روند جهانی نیست. شرکت‌های بزرگی مانند اُپن‌ای آی شاید با برچسب‌گذاری آثار خود موافقت کنند، اما استارت‌آپ‌هایی، چون میدجِرنی چنین ظرفیت یا حتی فرصتی ندارند. از طرفی، برچسب‌گذاری یا واترمارک گذاشتن برای پروژه‌های منبعِ باز مانند استیبل دیفیوژن غیرممکن است، زیرا این امکان را به شما می‌دهد که فناوری را در اختیار بگیرید و محتوای خودتان را بسازید.

هنری پارکر، کارشناس بررسی واقعیت منطقی، می‌گوید: «دیدن واترمارک لزوماً آن تأثیری که ما فکرش را می‌کنیم ندارد. اگر به کسی از قبل بگویید که قرار است یک ویدیوی جعل عمیق را تماشا کند، روان‌شناسی اجتماعی آن ویدئو به قدری قدرتمند است که طرف شک می‌کند شاید واقعی باشد! بنابراین تنها کاری که می‌توانید انجام دهید این است که ببینید چگونه می‌توانیم مدت زمان گردش این محتوا در فضای مجازی را کاهش دهیم.»

برای این کار لازم است محتوای تولیدشده توسط هوش مصنوعی پیدا و حذف شود، اما از نظر پارکر این کار سختی است. او می‌گوید: «ما پنج سال است که در این زمینه تلاش کرده‌ایم و تازه به‌دقت ۷۰ درصدی رسیدیم.» در کوتاه‌مدت، رقابت بین «تشخیص» و «ایجاد» خواهد بود و حتی تولیدکنندگان چنین محتواهایی، که بسیاری از آنها نیت بدی ندارند، می‌خواهند نرم‌افزار‌های تشخیص جعل عمیق را شکست دهند.

به گفته پارکر، راه حل مقابله با اطلاعات نادرست، نظارت بر گفتگو‌هایی است که در سراسر اینترنت اتفاق می‌افتد تا عوامل بدی که قصد انتشار اطلاعات نادرست را دارند، شناسایی شوند. این را می‌توان با زیر نظر گرفتن حساب‌های مشکوک توسط ناظران دولتی انجام داد. راه‌اندازی پویش‌های اجتماعی با مشارکت طرفداران یا مخالفان این فناوری نیز می‌تواند چالش مفیدی باشد.

دلگرمی‌های واقعی برای آینده

گروهی دیگر، اما خوش‌بین‌ترند. بن کُلمن (Ben Colman)، مدیرعامل استارت‌آپ تشخیص تصویر ریلیتی دیفِندر (Reality Defender)، شرکتی که از فناوری پیشرفته برای تشخیص تصاویر جعلی استفاده می‌کند، همیشه نشانه‌هایی برای شناسایی یک تصویر یا ویدیوی جعلی وجود دارد. این علائم می‌تواند هر چیزی باشد، از فیلتر‌های قوی که تصویر را بیش‌ازحد صاف نشان می‌دهد تا جزئیات طبیعی و واقعی که در ویدیو‌های جعلی وجود ندارد، برای مثال فردی که دچار هیجان می‌شود به دلیل پمپاژ خون بیشتر، چهر‌ه‌اش گل می‌اندازد که اگر ویدیو واقعی باشد چنین چیزی را می‌توان در آن دید. کلمن نتیجه می‌گوید: «خیلی چیز‌ها می‌توانند در جهت جعل و دروغ پیش بروند، اما سمت‌وسوی حقیقت تغییر نمی‌کند.»

فناوری تنها راه حل مشکل اخبار جعلی نیست. اگر عده‌ای از مردم باور می‌کنند که عکس یک زن ۱۲۲ ساله و کیک تولدی که خودش پخته واقعیت دارد، فریب دادن آنها برای چیز‌های بدتر و جدی‌تر کار سختی نخواهد بود. با این همه، هنوز هم می‌توان از فناوری برای مقابله با این مشکل استفاده کرد. تازه در آغاز راه هستیم.

منبع: آنا

باشگاه خبرنگاران جوان وب‌گردی وبگردی

منبع: باشگاه خبرنگاران

کلیدواژه: هوش مصنوعی پیشرفت فناوری

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.yjc.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۱۰۴۵۶۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

تولید کیت‌های استخراج DNA و RNA با قیمتی بسیار پایین‌تر از نمونه خارجی

به گزارش خبرگزاری علم و فناوری آنا، امیر شیرعلی‌زاده دزفولی، مدیرعامل شرکت دانش‌بنیان تولیدکننده کیت‌های استخراج DNA، درباره طراحی این کیت‌ها توضیح داد: این فناوری برای جداسازی انواع اسیدهای نوکلئیک ویروس‌های بیماری‌زا نظیر ایدز و آنفلوانزا قابل استفاده است.

وی ادامه داد: کیت‌های استخراج DNA و RNA ما یک بیستم کیت‌های اروپایی و یک پنجم نمونه‌های چینی و تایوانی قیمت دارد. در واقع این کیت‌ها در عین حال که کیفیت بسیار بالایی دارند از تمام نمونه‌های وارداتی ارزان‌تر هستند.

مدیرعامل این شرکت دانش‌بنیان، درباره ضرورت ساخت چنین کیت‌هایی، گفت: تا قبل از این فقط کیت‌های استخراج RNA را تولید می‌کردیم اما به تازگی فناوری استخراج DNA را نیز توسعه داده‌ایم و در نتیجه DNA و RNA را می‌توانیم استخراج کنیم.

وی ادامه داد: این کیت‌ها هم برای تشخیص در بیمارستان‌ها و هم آزمایشگاه‌های تشخیصی قابل استفاده هستند. از سوی دیگر در دانشگاه‌ها و مراکز تحقیقاتی نیز از این کیت‌ها برای مقاصد تحقیق و توسعه می‌توان استفاده کرد. ما براساس نیاز بازار تولید انجام می‌دهیم و تقریبا  ۵۰۰ واکنش در روز تولید داریم که این رقم در دوره کرونا تا پنج هزار واکنش نیز می‌رسید.

این دانش‌آموخته نانوشیمی اضافه کرد: در حال توسعه فناوری جداسازی سلول‌ها با ذرات مغناطیسی هستیم که این فناوری برای تشخیص و درمان سرطان بسیار کاربردی است.

 

انتهای پیام/

دیگر خبرها

  • هوش مصنوعی بی طرف نیست ؛ چشم بسته در جنگ شلیک می کند
  • (ویدئو) خلاصه بازی بایرن مونیخ ۲ - ۲ رئال مادرید؛ نبرد مونیخ برنده نداشت
  • قرارداد همکاری اوپن‌ای‌آی با فایننشال تایمز برای آموزش مدل‌های هوش مصنوعی
  • تولید کیت‌های استخراج DNA و RNA با قیمتی بسیار پایین‌تر از نمونه خارجی
  • (ویدئو) ماجرای سرقت لول‌های تریاک در سریال آینه عبرت | مواد مخدر آتقی واقعی بود!
  • پیش بینی آرتروز ۸ سال زودتر، با هوش مصنوعی و یک آزمایش خون
  • تصاویر واقعی است؛ خبری از کپسول آتش نشانی نیست!+ عکس
  • محققان: با هوش مصنوعی می‌توان آرتروز را ۸ سال زودتر پیش‌بینی کرد
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • تلویزیون‌های UHD واقعی را بشناسید