لكن ذلك كان قبل ظهور الذكاء الاصطناعي الاستهلاكي.
وفي يوم الأربعاء، قدمت Meta سياسة جديدة للتعامل مع تأثيرات الذكاء الاصطناعي على الإعلانات السياسية. وقالت إنه اعتبارا من العام المقبل، ستتطلب من المعلنين السياسيين في جميع أنحاء العالم الكشف عن متى استخدموا الذكاء الاصطناعي التابع لجهة خارجية، أو إعلانات القضايا الاجتماعية لتصوير الأشخاص والأحداث بشكل صناعي.
وأضافت Meta أنها ستمنع المعلنين من استخدام البرامج المدعومة بالذكاء الاصطناعي لإنشاء إعلانات تتعلق بالقضايا السياسية أو الاجتماعية، بالإضافة إلى الإعلانات المتعلقة بالإسكان أو التوظيف أو الائتمان أو الصحة أو الأدوية أو الخدمات المالية.
ويمكن للمعلنين استخدام الذكاء الاصطناعي التابع لجهات خارجية، ولكن مع الإفصاح عن ذلك.
وقالت الشركة: "نعتقد أن هذا النهج سيسمح لنا بفهم المخاطر المحتملة بشكل أفضل وبناء الضمانات الصحيحة لاستخدام الذكاء الاصطناعي التوليدي في الإعلانات التي تتعلق بموضوعات قد تكون حساسة في الصناعات الخاضعة للتنظيم".
ومع تزايد استخدام أدوات ذكية مثل ChatGPT وBard وMidjourney وغيرها، اضطرت شركات التكنولوجيا الكبرى مثل Meta إلى إعادة التفكير في كيفية التعامل مع حقبة جديدة من الصور والفيديو والصوت التي تم التلاعب بها أو الكاذبة تماما.
ويُطلب حاليا من أولئك الذين يعرضون إعلانات سياسية على Meta، إكمال عملية الترخيص وإدراج إخلاء المسؤولية "المدفوع بواسطة" على الإعلانات، والتي يتم تخزينها في مكتبة الإعلانات العامة للشركة لمدة سبع سنوات حتى يتمكن الصحفيون والأكاديميون من دراستها.
ومن خلال منع المعلنين من استخدام البرامج المدعومة بالذكاء الاصطناعي الخاصة لإنشاء إعلانات تتعلق بالقضايا السياسية أو الاجتماعية، قد تتمكن Meta من منع المشاكل أو الدعاوى القضائية المتعلقة بتكنولوجيا الإعلان الخاصة بها.
المصدر: نيويورك تايمز