شرکتهای پیشرو در حوزهی هوش مصنوعی، ازجمله OpenAI، مایکروسافت، گوگل و متا متعهد شدهاند جلوی استفاده از ابزارهای هوش مصنوعی خود را برای استثمار و تولید محتوای سوءاستفادهی جنسی از کودکان (CSAM) بگیرند.
بنیاد Thorn و سازمان All Tech Is Human گزارشی با عنوان «طرحی برای ایمنی هوش مصنوعی مولد: پیشگیری از سؤاستفادهی جنسی از کودکان» منتشر کردهاند که در آن برای محافظت از کودکان در فضای آنلاین، راهبردها و توصیههایی به شرکتهای سازندهی ابزارهای هوش مصنوعی، موتورهای جستوجو، شبکههای اجتماعی، شرکتهای هاستینگ و توسعهدهندگان ارائه میشود.
گزارش Thorn شامل چند بخش میشود. اولین مورد، ارزیابی و کاهش خطرات است؛ جاییکه شرکتها باید خطرات بالقوهی مرتبط با ابزارهای هوش مصنوعی مولد را ارزیابی کنند و آنها را کاهش دهند.
مورد دوم در گزارش Thorn، شفافیت و پاسخگویی است. شرکتها باید درمورد نحوهی عملکرد ابزارهای هوش مصنوعی مولد خود شفاف و پاسخگو باشند. این یعنی شرکتها ملزم به ارائهی اطلاعات واضح در مورد قابلیتها و محدودیتهای ابزارهای هوش مصنوعی و ایجاد فرایندهایی برای رسیدگی به شکایات و ارائهی امکان کنترل نحوهی استفاده از دادههای شخصی کاربران میشوند.
موضوع دیگر در گزارش Thorn، همکاری با ذینفعان است. این یعنی شرکتها برای توسعه و اجرای راهبردهای ایمنی هوش مصنوعی مولد، باید با ذینفعان مختلف ازجمله سازمانهای غیردولتی، کارشناسان کودک و مقامات دولتی همکاری کنند.