لوائح الذكاء الاصطناعي الجديدة في كاليفورنيا: التركيز على الذكاء الاصطناعي الأخلاقي

10 أكتوبر 2024
اكتشف كيف توازن قوانين الذكاء الاصطناعي الجديدة في كاليفورنيا بين الابتكار والمساءلة، وتغطي الخصوصية والتزييف العميق والرعاية الصحية والتعليم والأمن.

10 أكتوبر 2024
اكتشف كيف توازن قوانين الذكاء الاصطناعي الجديدة في كاليفورنيا بين الابتكار والمساءلة، وتغطي الخصوصية والتزييف العميق والرعاية الصحية والتعليم والأمن.
بدءًا من السيارات ذاتية القيادة ووصولًا إلى الرعاية الصحية، بدأت ابتكارات الذكاء الاصطناعي وشركات التكنولوجيا من الجيل التالي تلعب دورًا رئيسيًا في إعادة تشكيل حياتنا اليومية. ونتيجة لذلك، بلغ حجم السوق العالمي للذكاء الاصطناعي 196.63 مليار دولار في عام 2023 ومن المتوقع أن ينمو بمتوسط 36٪ سنويًا من عام 2024 إلى عام 2030. توضح هذه الأرقام مدى سرعة نمو الذكاء الاصطناعي.
من ناحية، يخلق التطور السريع للذكاء الاصطناعي حلولًا لمشاكل مختلفة في مختلف الصناعات. من ناحية أخرى، تسلط هذه السرعة الضوء على الحاجة إلى تطوير ذكاء اصطناعي مسؤول للتأكد من أن التحسينات أخلاقية ومفيدة للمجتمع.
على سبيل المثال، في عام 2016، أطلقت Microsoft برنامج دردشة آليًا، Tay، على X (تويتر سابقًا). تم تصميمه للتعلم من المحادثات مع المستخدمين. ومع ذلك، بعد وقت قصير من إطلاقه، بدأ Tay في إنشاء ردود بلغة غير احترافية لأنه التقط مجموعة من التفاعلات. في حين أن Microsoft أوقفت الروبوت بسرعة، إلا أنه مثال جيد على أهمية التأكد من أن البيانات المستخدمة في تدريب الذكاء الاصطناعي موثوقة وأن الجمهور على دراية بكيفية استخدام الشركات لهذه البيانات لمنتجات الذكاء الاصطناعي.

لمعالجة هذا القلق، وقع حاكم كاليفورنيا، Gavin Newsom، على أكثر من اثني عشر مشروع قانون متعلق بالذكاء الاصطناعي لتصبح قوانين في سبتمبر الماضي. تتناول هذه القوانين كل شيء بدءًا من الكشف عن التفاصيل المتعلقة ببيانات التدريب وحتى التعامل مع التزييف العميق. في هذه المقالة، سوف نستكشف قوانين الذكاء الاصطناعي في كاليفورنيا وما تتضمنه. هيا بنا نبدأ!
تم التوقيع على ثلاثة مشاريع قوانين رئيسية لدعم تطوير الذكاء الاصطناعي ليصبح أكثر أمانًا وموثوقية. مشروع قانون الجمعية (AB) 2013، الذي يدخل حيز التنفيذ في عام 2026، يتطلب من مزودي الذكاء الاصطناعي التوليدي نشر تفاصيل حول مجموعات بيانات التدريب الخاصة بهم. تتضمن هذه التفاصيل مصادر مجموعات البيانات، وتفاصيل حول كيفية استخدام البيانات، وعدد نقاط البيانات في المجموعة، وما إذا كانت البيانات محمية بحقوق الطبع والنشر أو مرخصة، والفترة الزمنية التي تم فيها جمع البيانات، وما إلى ذلك. ستساعد مشاركة هذه المعلومات شركات الذكاء الاصطناعي على بناء ثقة الجمهور.
هناك مشروع قانون مهم آخر تم توقيعه وهو AB 1008. يوسع هذا القانون قوانين الخصوصية الحالية في كاليفورنيا لتشمل حلول الذكاء الاصطناعي التوليدي. تم تقديم AB 1008 لمعالجة المخاوف وتعزيز ثقة الجمهور في كيفية تعامل أنظمة الذكاء الاصطناعي مع المعلومات الشخصية. وجدت دراسة استقصائية أن أكثر من 81٪ من المستهلكين قلقون من أن شركات الذكاء الاصطناعي قد تستخدم معلوماتهم بطرق لم يقصدوها. من خلال وضع حدود واضحة لكيفية استخدام الشركات للمعلومات الشخصية والربح منها، مثل الأسماء والعناوين و البيانات البيومترية، يساعد هذا القانون شركات الذكاء الاصطناعي على طمأنة المستخدمين بأنه سيتم التعامل مع بياناتهم بمسؤولية، حتى لو تم الكشف عنها بواسطة نظام ذكاء اصطناعي.

وبالمثل، يتطلب مشروع مجلس الشيوخ (SB) 896، أو قانون المساءلة عن الذكاء الاصطناعي التوليدي، من مكتب خدمات الطوارئ في كاليفورنيا (CalOES) إجراء تحليلات للمخاطر المحتملة التي تشكلها أنظمة الذكاء الاصطناعي التوليدي. سيعمل CalOES مع شركات الذكاء الاصطناعي الرائدة، مثل OpenAI و Anthropic، لمناقشة وتحليل التهديدات المحتملة التي يشكلها الذكاء الاصطناعي للبنية التحتية الحيوية للولاية.
لقد استكشفنا سابقًا كيف يمكن للذكاء الاصطناعي في التعليم تخصيص تجارب التعلم، وإعادة تعريف ممارسات التدريس، وتقديم ملاحظات في الوقت الفعلي، ودعم المعلمين بأدوات ورؤى متقدمة. في الواقع، يمكن لابتكارات الذكاء الاصطناعي أن تخلق بيئة دراسية أكثر فعالية و جاذبية للطلاب. يستخدم المعلمون والمدرسون في جميع أنحاء العالم الذكاء الاصطناعي بشكل أكثر انتظامًا، مع وجود مشاريع تجريبية ناجحة وعمليات تنفيذ أوسع جارية. تظهر الدراسات أن أكثر من 50٪ من المعلمين يشعرون أن الذكاء الاصطناعي في الفصول الدراسية قد أثر بشكل إيجابي على عملية التدريس والتعلم.

قدمت كاليفورنيا قانونين بشأن استخدام الذكاء الاصطناعي في المؤسسات التعليمية. AB 2876 يلزم مجلس التعليم الحكومي في كاليفورنيا بالنظر في الإلمام بالذكاء الاصطناعي (بعد 1 يناير 2025) في أطر المناهج والمواد التعليمية الخاصة بـ الرياضيات و العلوم و التاريخ. يهدف هذا القانون إلى التأكد من أن مدارس كاليفورنيا تعلم الطلاب أساسيات كيفية عمل الذكاء الاصطناعي، بالإضافة إلى القيود و التأثيرات و الاعتبارات الأخلاقية لاستخدام التكنولوجيا.
بالإضافة إلى ذلك، يتطلب SB 1288 من المشرفين على المدارس في كاليفورنيا إنشاء فرق عمل (في أو قبل 1 يناير 2026) لاستكشاف كيفية استخدام الذكاء الاصطناعي في المدارس الحكومية. ستحتاج فرق العمل هذه إلى تقديم نتائجها وتوصياتها إلى اللجان السياسية والمالية ذات الصلة في الهيئة التشريعية بحلول 1 يناير 2027. بعد تقديم التقرير، سيتم حل فريق العمل، وسيتم إلغاء الأحكام في 1 يناير 2031.
يعمل الذكاء الاصطناعي التوليدي على تحسين صناعة الرعاية الصحية من خلال تمكين الابتكارات في اكتشاف أدوية جديدة و تشخيص الأمراض و تخطيط العلاجات وروبوتات الدردشة الطبية. يمكن أن توفر هذه التطبيقات فوائد مثل المراقبة في الوقت الفعلي وتقديم المشورة والدعم من أجل تحسين نتائج المرضى. يمكن أيضًا استخدام تقنيات الذكاء الاصطناعي الأخرى، مثل الواقع المعزز (AR)، لتخطيط ومحاكاة العمليات الجراحية.

يأتي دمج الذكاء الاصطناعي التوليدي في الرعاية الصحية مع بعض المحاذير المتعلقة بخصوصية البيانات واللوائح التنظيمية. إن إعطاء الأولوية لدقة وموثوقية وعدالة النتائج التي يتم إنشاؤها بواسطة الذكاء الاصطناعي مع حماية خصوصية المعلومات الصحية أمر بالغ الأهمية.
لمعالجة هذه التحديات، أصدرت كاليفورنيا قانونين بشأن استخدام الذكاء الاصطناعي التوليدي في الرعاية الصحية. يدعو AB 3030 مقدمي الرعاية الصحية إلى الكشف عن استخدامهم للذكاء الاصطناعي التوليدي للتواصل مع المريض، وتحديدًا عندما تحتوي هذه الرسائل على معلومات سريرية للمريض. يضع SB 1120 قيودًا على كيفية قيام مقدمي خدمات الرعاية الصحية وشركات التأمين الصحي بأتمتة خدماتهم. تضمن هذه القوانين الجديدة أيضًا إشراف الأطباء المرخصين على استخدام أدوات الذكاء الاصطناعي في هذه الإعدادات.
أصدرت ولاية كاليفورنيا أيضًا قوانين تتعلق بالحد من استخدام الذكاء الاصطناعي لنشر معلومات مضللة أو غير دقيقة. يتطلب SB 942 من أنظمة الذكاء الاصطناعي التوليدي الشائعة أن تشير بوضوح في بيانات المصدر الخاصة بها إلى أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. تفعل العديد من شركات الذكاء الاصطناعي ذلك بالفعل، ويمكن للعديد من الأدوات المجانية الموجودة (ZeroGPT، Winston AI، GLTR، إلخ) أن تساعد الأشخاص على قراءة بيانات المصدر هذه واكتشاف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
تم تمرير ثلاثة قوانين جديدة (AB 1831، SB 926، SB 981) في كاليفورنيا لمعالجة القضايا المتعلقة بالتزييف العميق. تعمل هذه القوانين على توسيع نطاق الحماية الحالية، وتجريم إساءة استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، وتتطلب من منصات التواصل الاجتماعي إنشاء قنوات إبلاغ عن محتوى التزييف العميق. من المقرر تنفيذ القوانين بحلول يناير 2025.
ركز أحد مشاريع القوانين التي تم تمريرها ليصبح قانونًا على إعطاء تعريف مناسب للذكاء الاصطناعي. ينص AB 2885 على أن الذكاء الاصطناعي يُعرَّف بأنه "نظام هندسي أو قائم على الآلة يختلف في مستوى استقلاليته ويمكنه، لتحقيق أهداف صريحة أو ضمنية، الاستدلال من المدخلات التي يتلقاها حول كيفية إنشاء مخرجات يمكن أن تؤثر على البيئات المادية أو الافتراضية."
كان هناك أيضًا قانونان مثيران للاهتمام تم وضعهما لصناعة الترفيه. لعب أكبر اتحاد للممثلين السينمائيين والإذاعيين في أمريكا (SAG-AFTRA) دورًا حاسمًا في دفع هذه القوانين إلى حيز التنفيذ. يتطلب AB 2602 من استوديوهات الأفلام الحصول على إذن من الممثل قبل استخدام الذكاء الاصطناعي لإنشاء نسخة طبق الأصل من صوته وشكله. وفي الوقت نفسه، يحظر AB 1836 على الاستوديوهات إنشاء نسخ رقمية من الفنانين المتوفين (على غرار شخصية بيتر كوشينغ في Star Wars: Rogue One) دون موافقة ورثتهم.

بينما اكتشفنا كل قانون من هذه القوانين، ربما تساءلت عن سبب الحاجة إليها حقًا. كانت لوائح الذكاء الاصطناعي موضوعًا شائعًا للنقاش لبعض الوقت حتى الآن، لكنها اكتسبت زخمًا كبيرًا مع ظهور محتوى التزييف العميق، الذي أثر على مجالات مختلفة، بما في ذلك وسائل الإعلام والسياسة. أثار استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عبر الإنترنت مخاوف بشأن المعلومات المضللة وتأثيرها المحتمل على نتائج الانتخابات، على سبيل المثال. هناك أيضًا مخاوف متزايدة بشأن الخصوصية وإساءة استخدام البيانات الشخصية من خلال ابتكارات الذكاء الاصطناعي. كانت هذه القضايا عاملاً في سبب وجود العديد من القوانين الجديدة الآن لمعالجة هذه القضايا.
على سبيل المثال، يفرض AB 2905 على المكالمات الآلية الكشف عما إذا كانت أصواتًا تم إنشاؤها بواسطة الذكاء الاصطناعي. علاوة على ذلك، يدعو AB 2655 المنصات الكبيرة عبر الإنترنت مثل Facebook و X إلى إزالة أو تصنيف التزييفات العميقة المتعلقة بالانتخابات وإنشاء قنوات إبلاغ عن هذا المحتوى. يمكن للمرشحين والمسؤولين المنتخبين أيضًا طلب أمر قضائي إذا فشلت المنصات في الامتثال.
يستهدف قانون آخر، AB 2839، مستخدمي وسائل التواصل الاجتماعي الذين ينشرون أو يعيدون نشر التزييفات العميقة التي قد تضلل الناخبين. وبالمثل، ينص AB 2355 على إفصاحات واضحة للإعلانات السياسية التي يتم إنشاؤها باستخدام أدوات الذكاء الاصطناعي.
تعكس قوانين الذكاء الاصطناعي الجديدة في كاليفورنيا التزامًا متزايدًا بتحقيق التوازن بين الابتكار والمساءلة. من خلال معالجة المخاوف الرئيسية في مجالات مثل شفافية البيانات والخصوصية والتزييف العميق واستخدام الذكاء الاصطناعي في الرعاية الصحية والتعليم، تهدف هذه القوانين إلى حماية الأفراد والمجتمع مع تعزيز تطوير الذكاء الاصطناعي بشكل مسؤول. مع استمرار تطور الذكاء الاصطناعي، ستساعد هذه اللوائح في ضمان أن يكون نموه مصحوبًا بممارسات أخلاقية وثقة عامة. قد تشجع هذه القوانين أيضًا مناطق أخرى حول العالم على أن تحذو حذوها.
لمعرفة المزيد، قم بزيارة مستودع GitHub الخاص بنا، وتفاعل مع مجتمعنا. استكشف تطبيقات الذكاء الاصطناعي في التصنيع و الزراعة في صفحات الحلول الخاصة بنا. 🚀