۰۲ خرداد ۱۴۰۲ - ۰۸:۱۲
کد خبر: ۷۲۶۴۷
تا زمان تصویب قوانین جدید و موثر در حوزه هوش مصنوعی، دولت‌ها برای مدیریت تهدیدات به قوانین فعلی متوسل شده‌اند.

به گزارش پایداری ملی به نقل از خبرگزاری فارس، رویترز نوشت؛ از آنجایی که رقابت برای توسعه سرویس‌های هوش مصنوعی قدرتمندتر مانند چت‌جی‌پی‌تی سرعت می‌گیرد، برخی از رگولاتور‌ها برای کنترل فناوری‌ای که می‌تواند نحوه عملکرد جوامع و کسب‌وکار‌ها را تغییر دهد، بر قوانین قدیمی تکیه می‌کنند.

اتحادیه اروپا در حال نوشتن پیش‌نویس قوانین جدید هوش مصنوعی پیشرو است؛ اما چند سال طول می‌کشد تا این قانون اجرا شود.

ماسیمیلیانو سیمناگی، کارشناس حاکمیت داده گفت: «در غیاب مقررات، تنها کاری که دولت‌ها می‌توانند انجام دهند اعمال قوانین موجود است. اگر در مورد محافظت از داده‌های شخصی باشد، می‌توان قوانین حفاظت از داده‌ها را اعمال کرد و اگر تهدیدی برای ایمنی افراد باشد، مقرراتی وجود دارد که به طور خاص برای هوش مصنوعی تعریف نشده اند، اما همچنان قابل اجرا هستند.»

در ماه آوریل (فروردین-اردیبهشت)، پس از اینکه رگولاتور ایتالیایی سرویس چت‌جی‌پی‌تی را آفلاین کرد، ناظران ملی حریم خصوصی اروپا یک کارگروه را برای رسیدگی به مشکلات چت‌جی‌پی‌تی تشکیل دادند. پس از موافقت شرکت اپن‌ای‌ای آمریکایی با نصب ویژگی‌های تأیید سن و اجازه به کاربران اروپایی برای جلوگیری از استفاده اطلاعات آن‌ها برای آموزش مدل هوش مصنوعی، چت‌جی‌پی‌تی مجدداً برقرار شد.

یک منبع نزدیک به رگولاتور ایتالیا به رویترز گفت که این آژانس بررسی گسترده‌تر سایر ابزار‌های هوش مصنوعی مولد را آغاز خواهد کرد. مقامات حفاظت از داده‌ها در فرانسه و اسپانیا نیز در ماه آوریل تحقیقاتی را در مورد انطباق شرکت سازنده این ربات گفتگو با قوانین حفظ حریم خصوصی آغاز کردند.

مدل‌های هوش مصنوعی مولد به دلیل اشتباهات یا سوگیری ها، اطلاعات نادرست را با اطمینان عجیبی منتشر می‌کنند. چنین اشتباهاتی می‌تواند عواقب جدی داشته باشد. اگر یک بانک یا اداره دولتی از هوش مصنوعی برای تسریع تصمیم‌گیری استفاده کند، افراد ممکن است به‌طور ناعادلانه برای پرداخت وام یا مزایا رد شوند.

به گفته شش تنظیم کننده و کارشناس در ایالات متحده و اروپا، رگولاتور‌ها قصد دارند قوانین موجود را در این مورد اعمال کنند. این قوانین همه چیز از حق نسخه برداری و حریم خصوصی داده‌ها گرفته تا دو موضوع کلیدی داده‌های وارد شده به مدل‌ها و محتوای تولید شده را شامل می‌شوند.

در اتحادیه اروپا، طرح‌های پیشنهادی برای قانون هوش مصنوعی این اتحادیه، شرکت‌هایی مانند اپن‌ای‌آی را مجبور می‌کند تا هرگونه مطالب دارای حق چاپ (مانند کتاب یا عکس) را که برای آموزش مدل‌هایشان استفاده می‌شود، افشا کنند.

هری بورویک، مشاور کل در لومینانس (استارت آپی که از هوش مصنوعی برای پردازش اسناد قانونی استفاده می‌کند) به رویترز گفت که گفتگو بین رگولاتور‌ها و شرکت‌ها تاکنون محدود بوده است.

او گفت: «این برای آینده خوب نیست. به نظر می‌رسد که رگولاتور‌ها یا کند هستند یا تمایلی به اجرای رویکرد‌هایی ندارند که تعادل مناسب بین حمایت از مصرف‌کننده و رشد کسب‌وکار را ممکن می‌سازد.»

گزارش خطا
ارسال نظرات
نام
ایمیل
نظر