برزیل متا را از استفاده از پستهای اینستاگرام و فیسبوک برزیلیها برای آموزش مدلهای هوش مصنوعی (AI) منع کرده است.
این چند هفته پس از آن صورت میگیرد که این شرکت برنامههای مشابهی را برای استفاده از پیامهای کاربران از بریتانیا و اروپا برای همین منظور لغو کرد.
روز سهشنبه، آژانس ملی حفاظت از دادههای برزیل (ANPD) اعلام کرد که بلافاصله آخرین سیاست حفظ حریم خصوصی متا را که به آن اجازه میدهد مدلهای هوش مصنوعی مولد مانند چتباتها را بر اساس پیامهای کاربرانش آموزش دهد، تعلیق میکند.
سخنگوی متا به بی بی سی گفت که این شرکت “از این تصمیم ناامید شده است” و افزود که رویکرد آنها مطابق با قوانین حریم خصوصی محلی است.
این شرکت افزود: “این یک گام به عقب برای نوآوری، رقابت در توسعه هوش مصنوعی و تاخیر بیشتر در ارائه مزایای هوش مصنوعی به مردم برزیل است.”
متا بازار قابل توجهی در برزیل دارد. این کشور 102 میلیون کاربر فیس بوک و بیش از 113 میلیون کاربر اینستاگرام دارد.
ANPD گفت که به دلیل “خطر قریب الوقوع آسیب جدی و جبران ناپذیر یا مشکلات در احیای حقوق اولیه قربانیان عمل کرده است. [account] دارندگان”.
به متا پنج روز کاری پس از تصمیم ANPD فرصت داده شد تا نشان دهد که سیاست حفظ حریم خصوصی خود را تغییر داده است تا استفاده از اطلاعات شخصی ارسال شده در پیام های عمومی برای آموزش هوش مصنوعی مولد را حذف کند. در صورت عدم رعایت، با جریمه روزانه 50000 دلاری (6935 پوند) روبرو می شود.
سیاست به روز شده این شرکت همچنین در بریتانیا و اتحادیه اروپا (EU) مورد توجه قرار گرفته است.
با توجه به تغییرات سیاست حفظ حریم خصوصی متا، که قرار بود از 26 ژوئن در منطقه اعمال شود، از اطلاعات کاربران متا برای “توسعه و بهبود” محصولات هوش مصنوعی آن استفاده خواهد شد.
در اروپا، این تغییر سیاست شامل پستها، تصاویر، شرحها، نظرات و داستانهایی میشود که کاربران بالای 18 سال با مخاطبان عمومی در فیسبوک و اینستاگرام به اشتراک گذاشتهاند، اما نه پیامهای خصوصی.
اما پس از اینکه متا اعلام کرد درخواستی از سوی دیگر سهامداران اروپایی برای به تاخیر انداختن یادگیری مدل های زبان بزرگ (LLM) از سوی کمیسیون حفاظت از داده های ایرلندی (DPC) دریافت کرده است، این امر به تعویق افتاد.
LLM نوعی هوش مصنوعی است که به چت ربات هایی مانند ChatGPT OpenAI و Gemini گوگل قدرت می دهد.
متا در اعلام این تاخیر در 14 ژوئن گفت که این یک “گام به عقب” برای هوش مصنوعی در اروپا است.
با این حال، متا تصمیم گرفت با تغییر سیاست در برزیل به جلو حرکت کند.
پدرو مارتینز از Data Privacy Brasil از تصمیم ANPD استقبال کرد. او به بی بی سی گفت که بین اقدامات حفاظت از داده متا برای کاربران برزیلی و اروپایی اختلاف وجود دارد.
به گفته وی، متا قصد داشت از پیام های کودکان و نوجوانان برزیلی برای آموزش مدل های هوش مصنوعی خود استفاده کند، در حالی که در اروپا هیچ کس زیر 18 سال از پیام های آنها استفاده نمی کرد.
رگولاتور حفاظت از داده های برزیل همچنین دریافت که داده های شخصی یافت شده در پیام های کودکان و نوجوانان را می توان جمع آوری کرد و برای آموزش سیستم های هوش مصنوعی متا استفاده کرد که به طور بالقوه قانون حفاظت از داده های کشور را نقض می کند.
همچنین، آقای مارتینز گفت، در اروپا اقداماتی که کاربران میتوانند برای جلوگیری از استفاده متا از اطلاعات شخصی انجام دهند، سادهتر از برزیل است، جایی که او گفت کاربران میتوانند تا هشت مرحله برای جلوگیری از استفاده شرکت از پیامهایشان انجام دهند.
بیبیسی از متا خواست به این ادعا که قصد دارد از پستهای کودکان و نوجوانان برزیلی برای آموزش مدلهای هوش مصنوعی خود استفاده کند و اینکه آیا اقدامات سختتری برای انصراف از کاربران در برزیل ارائه کرده است، پاسخ دهد.