ຫຸ່ນຍົນສອງຕົວຖືລະດັບຄວາມສົມດຸນ.

ຄູ່ມືສະບັບສົມບູນກ່ຽວກັບກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍ AI)

ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ—ກົດລະບຽບ (EU) 2024/1689—ກຳນົດກົດລະບຽບທີ່ຜູກມັດທາງກົດໝາຍສຳລັບລະບົບ AI ໃດໆກໍຕາມທີ່ວາງຢູ່ໃນຕະຫຼາດເອີຣົບ ຫຼື ຜົນຜະລິດທີ່ສົ່ງມາເຖິງຜູ້ໃຊ້ຂອງສະຫະພາບຢູໂຣບ, ເຮັດໃຫ້ມັນເປັນກົດໝາຍ AI ທຳອິດຕາມລວງນອນ, ອີງໃສ່ຄວາມສ່ຽງຢູ່ທຸກບ່ອນ. ບໍ່ວ່າທ່ານຈະສ້າງແບບຈໍາລອງ, ປະສົມປະສານເຄື່ອງມືຂອງພາກສ່ວນທີສາມ, ຫຼືພຽງແຕ່ນໍາໃຊ້ chatbots ເພື່ອໃຫ້ບໍລິການລູກຄ້າ, ກົດຫມາຍວ່າດ້ວຍສ້າງຫນ້າທີ່ໃຫມ່ແລະເຮັດໃຫ້ທ່ານຖືກປັບໃຫມຫຼາຍເຖິງ 7% ຂອງມູນຄ່າທົ່ວໂລກຕໍ່ການລະເມີດ. ມີຜົນບັງຄັບໃຊ້ໃນວັນທີ 1 ສິງຫາ 2024; ໄລຍະການປະຕິບັດຕາມພັນທະໃນໄລຍະເດືອນກຸມພາ 2025 ຫາເດືອນສິງຫາ 2027, ຊຶ່ງຫມາຍຄວາມວ່າເວລາການກະກຽມແມ່ນຈໍາກັດ.

ຄູ່ມືພາກປະຕິບັດນີ້ຕັດຜ່ານຄໍາສັບທາງດ້ານກົດຫມາຍແລະອະທິບາຍສິ່ງທີ່ທ່ານຈໍາເປັນຕ້ອງຮູ້: ຂອບເຂດຂອງກົດຫມາຍວ່າດ້ວຍແລະຄໍານິຍາມທີ່ສໍາຄັນ, ການຈັດປະເພດຄວາມສ່ຽງສີ່ຊັ້ນ, ກໍານົດເວລາແລະການບັງຄັບໃຊ້ກົນໄກການບັງຄັບໃຊ້, ພັນທະທີ່ແນ່ນອນສໍາລັບຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້, ຜູ້ນໍາເຂົ້າແລະຜູ້ຈັດຈໍາຫນ່າຍ, ແລະການລົງໂທດສໍາລັບການຫຼຸດລົງສັ້ນ. ພວກເຮົາຍັງສ້າງແຜນທີ່ກົດລະບຽບກັບ GDPR, NIS2, ກົດລະບຽບຄວາມປອດໄພຂອງຜະລິດຕະພັນ, ແລະຂໍ້ກໍານົດສະເພາະຂອງຂະແຫນງການ, ກ່ອນທີ່ຈະໃຫ້ທ່ານມີລາຍການກວດສອບການປະຕິບັດຕາມຂັ້ນຕອນໂດຍຂັ້ນຕອນທີ່ທີມງານວິສະວະກໍາ, ກົດຫມາຍ, ແລະຜູ້ນໍາສາມາດປະຕິບັດໄດ້ທັນທີ. ຂໍໃຫ້ເຈົ້າກຽມພ້ອມ - ກ່ອນທີ່ຜູ້ກວດສອບຈະມາເຄາະ.

ໃນເວລາເບິ່ງ: ສິ່ງທີ່ EU AI Act ຕົວຈິງແມ່ນ

ກົດລະບຽບ (EU) 2024/1689—ທີ່ຮູ້ຈັກກັນດີໃນນາມກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ—ເປັນລະບຽບການຂອງສະຫະພາບເອີຣົບທີ່ໃຊ້ໄດ້ໂດຍກົງ, ບໍ່ແມ່ນຄໍາສັ່ງ. ນັ້ນ ໝາຍ ຄວາມວ່າບົດຄວາມຂອງມັນກັດອັດຕະໂນມັດໃນທຸກໆລັດສະມາຊິກໂດຍບໍ່ຈໍາເປັນຕ້ອງມີການຫັນປ່ຽນແຫ່ງຊາດ, ຄືກັບ GDPR ໄດ້ເຮັດໃນປີ 2018. ເປົ້າໝາຍແມ່ນສອງເທົ່າຄື: ປົກປ້ອງສິດທິພື້ນຖານ ແລະຄວາມປອດໄພໃນຂະນະດຽວກັນໃຫ້ບໍລິສັດມີຄວາມແນ່ນອນທາງດ້ານກົດໝາຍໃນການປະດິດສ້າງດ້ວຍຄວາມຮັບຜິດຊອບດ້ວຍ AI. ເພື່ອເຮັດສິ່ງນີ້, ກົດຫມາຍແນະນໍາຊຸດເຄື່ອງມືທີ່ອີງໃສ່ຄວາມສ່ຽງຕາມແນວນອນ, ເຊິ່ງກວມເອົາທຸກຂະແຫນງການຈາກການເງິນໄປສູ່ການດູແລສຸຂະພາບ, ລະບົບການໃຫ້ຄະແນນຈາກ "ຫນ້ອຍ" ຫາ "ບໍ່ສາມາດຍອມຮັບໄດ້" ກັບຫນ້າທີ່ທາງກົດຫມາຍທີ່ກົງກັນ.

ຂອບເຂດແລະຄໍານິຍາມທີ່ເຈົ້າຕ້ອງການຮູ້

ກ່ອນທີ່ຈະວາງແຜນການປະຕິບັດຕາມ, ຮຽນຮູ້ຄໍາສັບຫຼັກ:

  • ລະບົບ AI: "ລະບົບທີ່ອີງໃສ່ເຄື່ອງຈັກທີ່ຖືກອອກແບບມາເພື່ອປະຕິບັດກັບລະດັບການເປັນເອກະລາດທີ່ແຕກຕ່າງກັນແລະນັ້ນ, ສໍາລັບຈຸດປະສົງທີ່ຊັດເຈນຫຼື implicit, infers ຈາກຂໍ້ມູນການປ້ອນຂໍ້ມູນວິທີການສ້າງຜົນໄດ້ຮັບ - ເຊັ່ນ: ການຄາດຄະເນ, ເນື້ອໃນ, ຄໍາແນະນໍາຫຼືການຕັດສິນໃຈ - ທີ່ສາມາດມີອິດທິພົນຕໍ່ສະພາບແວດລ້ອມທາງດ້ານຮ່າງກາຍຫຼື virtual."
  • AI ຈຸດປະສົງທົ່ວໄປ (GPAI): ລະບົບ AI ທີ່ສາມາດຮັບໃຊ້ວຽກງານທີ່ຫຼາກຫຼາຍທີ່ແຕກຕ່າງກັນ, ໂດຍບໍ່ຄໍານຶງເຖິງວິທີການທີ່ມັນຈະຖືກປັບຫຼືນໍາໄປໃຊ້.
  • ຜູ້ໃຫ້ບໍລິການ: ບຸກຄົນທົ່ວໄປຫຼືທາງດ້ານກົດຫມາຍທີ່ພັດທະນາ - ຫຼືໄດ້ພັດທະນາ - ລະບົບ AI ທີ່ມີທັດສະນະທີ່ຈະວາງມັນຢູ່ໃນຕະຫຼາດຫຼືເອົາມັນເຂົ້າໄປໃນການບໍລິການພາຍໃຕ້ຊື່ຫຼືເຄື່ອງຫມາຍການຄ້າຂອງພວກເຂົາ.
  • ຜູ້ໃຊ້ (ມັກເອີ້ນວ່າ "ຜູ້ນຳໃຊ້"): ບຸກຄົນ ຫຼື ນິຕິບຸກຄົນທີ່ໃຊ້ລະບົບ AI ພາຍໃຕ້ສິດອຳນາດຂອງຕົນ, ຍົກເວັ້ນການໃຊ້ສ່ວນຕົວ, ທີ່ບໍ່ແມ່ນອາຊີບ.
  • ຜູ້ນໍາເຂົ້າ: ສະຫະພັນທີ່ຕັ້ງຢູ່ໃນຕະຫຼາດ EU ລະບົບ AI ທີ່ມີຊື່ຫຼືເຄື່ອງຫມາຍການຄ້າຂອງຫນ່ວຍງານທີ່ຢູ່ນອກສະຫະພາບ.
  • ຜູ້ຈັດຈໍາຫນ່າຍ: ນັກສະແດງໃນລະບົບຕ່ອງໂສ້ການສະຫນອງ - ນອກເຫນືອຈາກຜູ້ໃຫ້ບໍລິການຫຼືຜູ້ນໍາເຂົ້າ - ຜູ້ທີ່ເຮັດໃຫ້ລະບົບ AI ສາມາດໃຊ້ໄດ້ໂດຍບໍ່ມີການດັດແປງມັນ.

ການເຂົ້າເຖິງອານາເຂດແມ່ນກວ້າງຂວາງ: ລະບົບໃດກໍ່ຕາມທີ່ວາງຢູ່ໃນຕະຫຼາດ EU ຫຼືຜົນຜະລິດທີ່ຖືກນໍາໃຊ້ໃນ EU ແມ່ນຢູ່ພາຍໃຕ້ກົດຫມາຍວ່າດ້ວຍ, ບໍ່ວ່າຜູ້ພັດທະນາຈະຢູ່ໃສ. ການແກະສະຫຼັກມີຢູ່ສໍາລັບຄໍາຮ້ອງສະຫມັກການທະຫານທີ່ບໍລິສຸດຫຼືຄວາມປອດໄພແຫ່ງຊາດ, R&D prototypes ຍັງບໍ່ທັນໄດ້ອອກຕະຫຼາດ, ແລະໂຄງການ hobby ສ່ວນບຸກຄົນ.

ຫຼັກການຫຼັກທີ່ຝັງຢູ່ໃນກົດໝາຍ

ລະບຽບດັ່ງກ່າວໄດ້ພັບແນວຄວາມຄິດດ້ານຈັນຍາບັນມາແຕ່ດົນນານມາເປັນກົດໝາຍທີ່ບັງຄັບໃຊ້ໄດ້:

  • ໜ່ວຍງານມະນຸດສະທຳ ແລະ ກວດກາ
  • ຄວາມທົນທານທາງດ້ານເຕັກນິກ ແລະຄວາມປອດໄພ
  • ຄວາມເປັນສ່ວນຕົວ ແລະການຄຸ້ມຄອງຂໍ້ມູນ
  • ຄວາມໂປ່ງໃສ ແລະການອະທິບາຍ
  • ຄວາມຫຼາກຫຼາຍ, ບໍ່ຈຳແນກ ແລະ ຍຸຕິທຳ
  • ສະຫວັດດີການສັງຄົມ ແລະ ສິ່ງແວດລ້ອມ

ສິ່ງເຫຼົ່ານີ້ສະທ້ອນເຖິງຫຼັກການ AI ຂອງ OECD ແລະ “ຂໍ້ແນະນຳດ້ານຈັນຍາບັນຂອງ EU” ກ່ອນໜ້ານີ້ AI ທີ່ເຊື່ອຖືໄດ້,” ແຕ່ໃນປັດຈຸບັນປະຕິບັດແຂ້ວກົດລະບຽບ.

ກົດລະບຽບທຽບກັບຂໍ້ແນະນຳກົດໝາຍອ່ອນທີ່ມີຢູ່

ຈົນກ່ວາ 2024, ການປົກຄອງ AI ໃນເອີຣົບແມ່ນອີງໃສ່ກອບການສະຫມັກໃຈເຊັ່ນ EU AI Pact ຫຼືລະຫັດຈັນຍາບັນຂອງບໍລິສັດ. ກົດໝາຍວ່າດ້ວຍ AI ປ່ຽນແປງເກມ: ການປະຕິບັດຕາມແມ່ນບັງຄັບ, ສາມາດກວດສອບໄດ້, ແລະສະໜັບສະໜູນໂດຍ ປັບໃໝເຖິງ 35 ລ້ານເອີໂຣ ຫຼື 7% ຂອງລາຍຮັບທົ່ວໂລກ. ໃນຄໍາສັບຕ່າງໆອື່ນໆ, ການປະກາດຂອງ "AI ດ້ານຈັນຍາບັນ" ແມ່ນບໍ່ພຽງພໍອີກຕໍ່ໄປ - ອົງການຈັດຕັ້ງຕ້ອງຜະລິດການປະເມີນຄວາມສອດຄ່ອງ, ເຄື່ອງຫມາຍ CE, ແລະບັນທຶກທີ່ຢັ້ງຢືນໄດ້ຫຼືຄວາມສ່ຽງທີ່ຈະຖືກຫ້າມຈາກຕະຫຼາດ EU.

ໄລຍະເວລາ, ສະຖານະທາງກົດໝາຍ ແລະໄລຍະການບັງຄັບໃຊ້

ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບຢູໂຣບ ໄດ້ເດີນທາງຈາກຂໍ້ສະເໜີໄປສູ່ກົດໝາຍທີ່ຜູກມັດພາຍໃນເວລາພຽງສາມປີເທົ່ານັ້ນ - ຄວາມໄວແສງໂດຍມາດຕະຖານຂອງບຣຸກແຊນ. ເນື່ອງຈາກວ່າມັນເປັນກົດລະບຽບ, ບົດຄວາມສ່ວນໃຫຍ່ຈະນໍາໃຊ້ໂດຍອັດຕະໂນມັດໃນທົ່ວ bloc ໂດຍບໍ່ມີການປ່ຽນປະເທດ. ສິ່ງ​ທີ່​ປ່ຽນ​ໄປ​ຕາມ​ການ​ເວລາ​ນັ້ນ​ແມ່ນ​ພັນທະ​ທີ່​ຕ້ອງ​ກັດ​ກ່ອນ. ຕາຕະລາງເວລາຂ້າງລຸ່ມນີ້ສະແດງໃຫ້ເຫັນຈຸດສໍາຄັນທາງດ້ານການເມືອງທີ່ເຮັດໃຫ້ພວກເຮົາຢູ່ທີ່ນີ້ແລະກໍານົດຂັ້ນຕອນສໍາລັບຫນ້າທີ່ປະຕິບັດຕາມຂັ້ນຕອນທີ່ອົງການຂອງເຈົ້າຕ້ອງຢູ່ໃນປະຕິທິນ.

ວັນທີ່ສະຫມັກ ເຫດການສໍາຄັນ ຄວາມສໍາຄັນ
21 Apr 2021 ຄະນະກຳມະການເຜີຍແຜ່ຮ່າງກົດໝາຍວ່າດ້ວຍ AI ການເລີ່ມຕົ້ນຢ່າງເປັນທາງການຂອງຂະບວນການນິຕິບັນຍັດ
9 Dec 2023 ສະພາ​ແລະ​ສະພາ​ບັນລຸ​ຂໍ້​ຕົກລົງ​ທາງ​ການ​ເມືອງ ຂໍ້ຄວາມຫຼັກຖືກລັອກເປັນສ່ວນໃຫຍ່
13 ຄະ 2024 ການລົງຄະແນນສຽງສຸດທ້າຍຂອງສະພາເອີຣົບ (523-46) ໄດ້ຮັບການອະນຸມັດຈາກປະຊາທິປະໄຕ
21 ພຶດສະພາ 2024 ສະພາ​ການ​ຮັບຮອງ EU ອຸປະສັກດ້ານນິຕິກຳສຸດທ້າຍຖືກລຶບລ້າງ
10 ກະ 2024 ຂໍ້ຄວາມທີ່ຕີພິມໃນວາລະສານທາງການ ການນັບຖອຍຫຼັງທາງກົດໝາຍເລີ່ມຕົ້ນ
1 Aug 2024 ກົດລະບຽບ (EU) 2024/1689 ມີຜົນບັງຄັບໃຊ້ “ວັນທີ 0” ສຳລັບກຳນົດເວລາໃນອະນາຄົດທັງໝົດ

ວັນທີເຂົ້າເປັນຜົນບັງຄັບໃຊ້ເຮັດໃຫ້ເກີດຊຸດຂອງວັນທີການສະຫມັກທີ່ແຜ່ຂະຫຍາຍໃນໄລຍະສາມປີ. ການອອກແບບນີ້ເຮັດໃຫ້ຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້, ຜູ້ນໍາເຂົ້າ, ແລະຜູ້ຈັດຈໍາຫນ່າຍຫ້ອງຫາຍໃຈເພື່ອສ້າງຂະບວນການສອດຄ່ອງ, ຍົກລະດັບແບບຈໍາລອງ, ແລະການຝຶກອົບຮົມພະນັກງານ - ແຕ່ມັນຍັງຫມາຍຄວາມວ່າຜູ້ກວດສອບຄາດວ່າຈະມີຄວາມຄືບຫນ້າທີ່ດີກ່ອນປີ 2027.

ແຜນ​ທີ່​ການ​ບັງ​ຄັບ​ໃຊ້​: ສິ່ງ​ທີ່​ນໍາ​ໃຊ້​ໃນ​ເວ​ລາ​ທີ່​

  • 6 ເດືອນ | ວັນທີ 1 ກຸມພາ 2025
    • ການປະຕິບັດ AI ທີ່ຖືກຫ້າມ (ສິນລະປະ. 5) ຈະຕ້ອງຢູ່ນອກຕະຫຼາດ - ບໍ່ມີຂໍ້ແກ້ຕົວ.
  • 12 ເດືອນ | ວັນທີ 1 ສິງຫາ 2025
    • ຫນ້າທີ່ຄວາມໂປ່ງໃສສໍາລັບການປອມແປງເລິກ, chatbots, ແລະການຮັບຮູ້ຄວາມຮູ້ສຶກເລີ່ມຕົ້ນ.
    • ລະຫັດການປະຕິບັດສໍາລັບ AI ຈຸດປະສົງທົ່ວໄປ (GPAI) ຄາດວ່າຈະ; ສະຫມັກໃຈແຕ່ແນະນໍາໃຫ້ສູງ.
  • 24 ເດືອນ | ວັນທີ 1 ສິງຫາ 2026
    • ຄວາມຕ້ອງການລະບົບຄວາມສ່ຽງສູງເລີ່ມຕົ້ນ: ການຄຸ້ມຄອງຄວາມສ່ຽງ, ການຄຸ້ມຄອງຂໍ້ມູນ, ເອກະສານດ້ານວິຊາການ, ການຄວບຄຸມຂອງມະນຸດ, ແລະການກະກຽມເຄື່ອງຫມາຍ CE.
    • ຜູ້ໃຫ້ບໍລິການຕ້ອງລົງທະບຽນລະບົບທີ່ມີຄວາມສ່ຽງສູງໃນຖານຂໍ້ມູນໃຫມ່ຂອງ EU.
  • 36 ເດືອນ | ວັນທີ 1 ສິງຫາ 2027
    • ລະບອບເຕັມທີ່ນຳໃຊ້, ລວມທັງລະບົບການລະບຸຕົວຕົນທາງຊີວະມິຕິ, ການປະເມີນຄວາມສອດຄ່ອງຂອງຮ່າງກາຍທີ່ໄດ້ຮັບການແຈ້ງເຕືອນ, ແລະການປະກາດບັງຄັບຂອງສະຫະພາບເອີຣົບກ່ຽວກັບຄວາມສອດຄ່ອງສໍາລັບ AI ທີ່ມີຄວາມສ່ຽງສູງທັງໝົດ.
    • ເຈົ້າຫນ້າທີ່ເຝົ້າລະວັງຕະຫຼາດ ໄດ້ຮັບອໍານາດທີ່ຈະສັ່ງການເອີ້ນຄືນຫຼືການຖອນຄືນສໍາລັບຜະລິດຕະພັນທີ່ບໍ່ປະຕິບັດຕາມ.

ຂໍ້ກໍານົດໄລຍະຂ້າມຜ່ານອະນຸຍາດໃຫ້ລະບົບທີ່ມີຄວາມສ່ຽງສູງຖືກນໍາໃຊ້ຢ່າງຖືກກົດຫມາຍກ່ອນເດືອນສິງຫາ 2026 ຢູ່ໃນຕະຫຼາດຈົນກ່ວາພວກເຂົາໄດ້ຮັບ "ການດັດແປງຢ່າງຫຼວງຫຼາຍ." ວາງແຜນການອັບເກຣດຢ່າງລະມັດລະວັງເພື່ອຫຼີກເວັ້ນການຕັ້ງໂມງການປະຕິບັດຕາມແບບບັງເອີນ.

ສະຖາບັນ ແລະອົງການກວດກາ

ການກວດກາສາມຊັ້ນບັງຄັບໃຊ້ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ:

  1. ຫ້ອງການ AI ຂອງ EU (ຄະນະກໍາມາທິການເອີຣົບ) - ປະສານງານການຊີ້ນໍາ, ຮັກສາການລົງທະບຽນ GPAI, ແລະສາມາດປັບຄ່າປັບໃຫມຜູ້ໃຫ້ບໍລິການແບບຈໍາລອງລະບົບ.
  2. ອຳນາດການປົກຄອງແຫ່ງຊາດ – ຫນຶ່ງ​ໃນ​ປະ​ເທດ​ສະ​ມາ​ຊິກ​; ຈັດການການກວດກາ, ການຮ້ອງທຸກ, ແລະການເຝົ້າລະວັງຕະຫຼາດປະຈໍາວັນ.
  3. ອົງການຈັດຕັ້ງທີ່ຖືກແຈ້ງໃຫ້ຊາບ - ອົງການຈັດຕັ້ງການປະເມີນຄວາມສອດຄ່ອງແບບເອກະລາດທີ່ກວດສອບລະບົບທີ່ມີຄວາມສ່ຽງສູງກ່ອນທີ່ຈະມີເຄື່ອງຫມາຍ CE.

ນັກສະແດງເຫຼົ່ານີ້ຮ່ວມມືໂດຍຜ່ານ ຄະນະປັນຍາປະດິດເອີຣົບ (EAIB), ເຊິ່ງອອກບັນທຶກການຕີຄວາມສອດຄ່ອງ - ຄິດວ່າມັນເປັນ AI ທຽບເທົ່າຂອງ GDPR ຂອງ EDPB. ຢູ່​ຕື່ນ​ຕົວ​ກັບ​ການ​ຊີ້​ນໍາ​ຂອງ​ເຂົາ​ເຈົ້າ​; ມັນຈະເປັນຮູບຮ່າງວິທີການໄຟລ໌ດ້ານວິຊາການແລະການປະເມີນຄວາມສ່ຽງຂອງທ່ານຖືກຕັດສິນໃນການປະຕິບັດ.

ກອບການຈໍາແນກຄວາມສ່ຽງສີ່ຊັ້ນ

ຈຸດໃຈກາງຂອງກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍວ່າດ້ວຍ AI) ວາງຕົວແບບໄຟຈະລາຈອນທີ່ກຳນົດວ່າກົດລະບຽບທີ່ເຄັ່ງຄັດຄືແນວໃດ: ຄວາມສ່ຽງຕໍ່ສິດທິ ແລະຄວາມປອດໄພຂອງປະຊາຊົນສູງເທົ່າໃດ, ການປະຕິບັດຕາມກົດໝາຍຈະໜັກຂຶ້ນ. ທຸກໆລະບົບ AI ຈະຕ້ອງຖືກສ້າງແຜນທີ່ເປັນໜຶ່ງໃນສີ່ຊັ້ນຮຽນ—ບໍ່ສາມາດຍອມຮັບໄດ້, ສູງ, ຈຳກັດ ຫຼືໜ້ອຍທີ່ສຸດ. ການຈັດປະເພດເຮັດໃຫ້ທຸກສິ່ງອື່ນໆ: ຄວາມເລິກຂອງເອກະສານ, ການທົດສອບຄວາມເຂັ້ມງວດ, ການຄວບຄຸມ, ແລະ, ໃນທີ່ສຸດ, ການເຂົ້າເຖິງຕະຫຼາດ.

ລະດັບຄວາມສ່ຽງ ຕົວຢ່າງທົ່ວໄປ ຜົນສະທ້ອນທາງກົດໝາຍຫຼັກ ວັນທີສະໝັກທຳອິດ*
ຍອມຮັບບໍ່ໄດ້ ການໃຫ້ຄະແນນສັງຄົມ, ID biometric ໃນເວລາຈິງໃນສະຖານທີ່ສາທາລະນະ, ເຄື່ອງຈັກ "nudge" manipulative ຫ້າມທັງໝົດ; ຖອນ ແລະປັບໃໝສູງສຸດ €35 m / 7 % 1 ກະ 2025
ສູງ ເຄື່ອງ​ມື​ກວດ​ສອບ CV, ຊອບ​ແວ​ການ​ວິ​ນິດ​ໄສ​ທາງ​ການ​ແພດ, ການ​ໃຫ້​ຄະ​ແນນ​ຄຸນ​ຄ່າ​ສິນ​ເຊື່ອ, ໂມ​ດູນ​ການ​ຂັບ​ລົດ​ເປັນ​ເອ​ກະ​ລາດ ການປະເມີນຄວາມສອດຄ່ອງ, ເຄື່ອງຫມາຍ CE, ການລົງທະບຽນ, ການຕິດຕາມຕະຫຼາດ 1 ສິງຫາ 2026 (ຊີວະມິຕິ: 1 ສິງຫາ 2027)
ຈໍາກັດ Chatbots, deepfake generator, widget ການວິເຄາະຄວາມຮູ້ສຶກ ແຈ້ງການຄວາມໂປ່ງໃສ ແລະການຄວບຄຸມຜູ້ໃຊ້ຂັ້ນພື້ນຖານ 1 Aug 2025
ຫນ້ອຍ ການກັ່ນຕອງຂີ້ເຫຍື້ອທີ່ຂັບເຄື່ອນດ້ວຍ AI, NPCs ວິດີໂອເກມ ບໍ່ມີກົດລະບຽບບັງຄັບ; ລະຫັດສະໝັກໃຈເທົ່ານັ້ນ ມີຜົນບັງຄັບໃຊ້ແລ້ວ

* ຄິດໄລ່ຕັ້ງແຕ່ວັນທີ 1 ສິງຫາ 2024 ເປັນຕົ້ນໄປ.

ກອບເປັນແບບເຄື່ອນໄຫວ: ຖ້າທ່ານເພີ່ມຄຸນສົມບັດໃຫມ່ຫຼືປ່ຽນຜູ້ໃຊ້ເປົ້າຫມາຍ, ລະບົບຂອງທ່ານອາດຈະກ້າວໄປສູ່ລະດັບ, ເຮັດໃຫ້ເກີດຫນ້າທີ່ໃຫມ່.

ຄວາມສ່ຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້: ຫ້າມການປະຕິບັດ AI

ມາດ​ຕາ 5 ແຕ້ມ​ເສັ້ນ​ສີ​ແດງ​ພາຍ​ໃຕ້​ການ​ນໍາ​ໃຊ້ EU ພິ​ຈາ​ລະ​ນາ​ໂດຍ​ທົ່ວ​ໄປ​ບໍ່​ສອດ​ຄ່ອງ​ກັບ​ສິດ​ພື້ນ​ຖານ. ເຫຼົ່ານີ້ລວມມີ:

  • ເຕັກນິກ subliminal ທີ່ບິດເບືອນພຶດຕິກໍາທາງດ້ານວັດຖຸ
  • ການຂູດຮີດຄວາມອ່ອນແອຂອງເດັກນ້ອຍ ຫຼືຄົນພິການ
  • ບໍ່ຈຳແນກເວລາຈິງ ການກໍານົດທາງຊີວະພາບ ໃນສະຖານທີ່ສາທາລະນະທີ່ສາມາດເຂົ້າເຖິງໄດ້ (ການບັງຄັບໃຊ້ກົດໝາຍທີ່ແຄບແມ່ນນຳໃຊ້)
  • ການໃຫ້ຄະແນນສັງຄົມໂດຍອໍານາດການປົກຄອງສາທາລະນະ
  • ຕຳ ຫຼວດການຄາດເດົາໂດຍອີງໃສ່ຂໍ້ມູນໂປຣໄຟລ໌ຫຼືສະຖານທີ່ເທົ່ານັ້ນ

ລະບົບດັ່ງກ່າວຕ້ອງບໍ່ເຄີຍຕີຕະຫຼາດ EU. ອຳນາດ​ການ​ປົກຄອງ​ແຫ່ງ​ຊາດ​ສາມາດ​ສັ່ງ​ໃຫ້​ຮຽກ​ຄືນ​ໃນ​ທັນທີ, ​ແລະ​ການ​ລົງ​ໂທດ​ຕໍ່​ຂັ້ນ​ໄດ​ທີ່​ດີ​ຂອງ​ກົດໝາຍ.

ລະບົບ AI ຄວາມສ່ຽງສູງ: ໝວດໝູ່ III

ລະບົບຈະຕົກຢູ່ໃນຖັງທີ່ມີຄວາມສ່ຽງສູງຖ້າມັນແມ່ນ:

  1. ອົງປະກອບຄວາມປອດໄພຂອງຜະລິດຕະພັນທີ່ຄວບຄຸມແລ້ວ (ຕົວຢ່າງ, ພາຍໃຕ້ກົດລະບຽບຂອງເຄື່ອງຈັກ ຫຼືອຸປະກອນການແພດ), ຫຼື
  2. ລະບຸໄວ້ໃນເອກະສານຊ້ອນ III ຂອງແປດໂດເມນທີ່ລະອຽດອ່ອນ - ຊີວະມິຕິ, ໂຄງສ້າງພື້ນຖານທີ່ສໍາຄັນ, ການສຶກສາ, ການຈ້າງງານ, ການ​ບໍ​ລິ​ການ​ທີ່​ຈໍາ​ເປັນ​, ການບັງຄັບໃຊ້ກົດຫມາຍ, ການເຄື່ອນຍ້າຍ, ແລະຄວາມຍຸດຕິທໍາ.

ເມື່ອຖືກຈັດປະເພດຄວາມສ່ຽງສູງ, ຜູ້ໃຫ້ບໍລິການຕ້ອງປະຕິບັດລະບົບການຄຸ້ມຄອງຄຸນນະພາບ, ປະຕິບັດຮອບວຽນການຄຸ້ມຄອງຄວາມສ່ຽງ, ແລະຮັບປະກັນການປະເມີນຄວາມສອດຄ່ອງ - ບາງຄັ້ງຜ່ານອົງການທີ່ໄດ້ຮັບການແຈ້ງເຕືອນຈາກພາຍນອກ. ຜູ້​ໃຊ້ (ຜູ້​ຈັດ​ຕັ້ງ) ຮັບ​ມໍ​ລະ​ດົກ​ການ​ຕັດ​ໄມ້, ການ​ຄວບ​ຄຸມ, ແລະ​ໜ້າ​ທີ່​ການ​ລາຍ​ງານ​ເຫດ.

ຄວາມສ່ຽງຈໍາກັດ: ພັນທະຄວາມໂປ່ງໃສ

ເຄື່ອງມືທີ່ມີຄວາມສ່ຽງຈໍາກັດແມ່ນບໍ່ເປັນອັນຕະລາຍ, ແຕ່ EU ເຊື່ອວ່າຄວາມຮັບຮູ້ຂອງຜູ້ໃຊ້ຫຼຸດຜ່ອນອັນຕະລາຍທີ່ສຸດ. ຜູ້ຜະລິດ chatbots, ເຄື່ອງຈັກສິລະປະ AI generative, ຫຼືການບໍລິການສຽງສັງເຄາະຕ້ອງ:

  • ແຈ້ງ​ໃຫ້​ຜູ້​ຊົມ​ໃຊ້​ທີ່​ເຂົາ​ເຈົ້າ​ມີ​ການ​ພົວ​ພັນ​ກັບ AI ("ຮູບ​ພາບ​ນີ້​ແມ່ນ AI ສ້າງ​"​)
  • ເປີດເຜີຍເນື້ອຫາປອມໃນເຄື່ອງໝາຍນ້ຳທີ່ສາມາດອ່ານໄດ້
  • ຫຼີກລ່ຽງການເກັບກຳຂໍ້ມູນສ່ວນຕົວແບບລັບໆເກີນກວ່າສິ່ງທີ່ຈຳເປັນຢ່າງເຂັ້ມງວດ

ການບໍ່ສະໜອງແຈ້ງການດັ່ງກ່າວຈະຫຼຸດລະດັບລະບົບຊື່ໄປຫາເຂດແດນທີ່ບໍ່ປະຕິບັດຕາມ ແລະ ເຊີນໃຫ້ມີການປັບໃໝທາງບໍລິຫານ.

ຄວາມສ່ຽງໜ້ອຍສຸດ/ມີໜ້ອຍ: ບໍ່ມີກົດລະບຽບບັງຄັບ

ການກັ່ນຕອງຂີ້ເຫຍື້ອ, ຂໍ້ຄວາມຄາດຄະເນໃນອີເມລ໌, ຫຼື AI ທີ່ເພີ່ມປະສິດທິພາບການໃຊ້ພະລັງງານ HVAC ໂດຍທົ່ວໄປແມ່ນຕົກຢູ່ນີ້. ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍວ່າດ້ວຍ AI) ບໍ່ໄດ້ວາງພັນທະອັນໜັກໜ່ວງ, ແຕ່ມັນຊຸກຍູ້ຢ່າງຈິງຈັງກັບລະຫັດສະໝັກໃຈ, ກ່ອງຊາຍດ້ານລະບຽບ ແລະ ການປະຕິບັດຕາມມາດຕະຖານສາກົນເຊັ່ນ ISO/IEC 42001. ການຮັກສາເອກະສານທີ່ເບົາບາງ ແລະ ການທົດສອບອະຄະຕິຂັ້ນພື້ນຖານຍັງຄົງເປັນການເຄື່ອນໄຫວທີ່ສະຫຼາດ - ຜູ້ຄວບຄຸມສາມາດຈັດປະເພດກໍລະນີເສັ້ນຊາຍແດນຄືນໃໝ່ໄດ້ ຖ້າມີຫຼັກຖານສະແດງຄວາມເສຍຫາຍ.

ພັນທະຫຼັກສໍາລັບຜູ້ໃຫ້ບໍລິການ, ຜູ້ຈັດວາງ, ແລະນັກສະແດງອື່ນໆ

ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງ EU ເຜີຍແຜ່ໜ້າທີ່ການປະຕິບັດຕາມໃນທົ່ວຕ່ອງໂສ້ການສະໜອງທັງໝົດ. ເນື່ອງຈາກວ່າຄວາມຮັບຜິດຊອບປະຕິບັດຕາມຫນ້າທີ່, ບໍ່ແມ່ນຂະຫນາດຂອງບໍລິສັດ, ກ່ອນອື່ນ ໝົດ ທ່ານຕ້ອງກໍານົດວ່າຫມວກໃດທີ່ເຈົ້າໃສ່ - ຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້ (ຜູ້ຈັດວາງ), ຜູ້ນໍາເຂົ້າ, ຫຼືຜູ້ຈັດຈໍາຫນ່າຍ - ແລະຫຼັງຈາກນັ້ນຈັດວາງຕາມຄວາມຕ້ອງການສະເພາະຄວາມສ່ຽງ. ການຂາດການຈັດປະເພດທີ່ຖືກຕ້ອງແມ່ນເປັນການຄົ້ນຫາການກວດສອບທົ່ວໄປ, ສະນັ້ນໃຫ້ປະຕິບັດການອອກກໍາລັງແຜນທີ່ເປັນຂັ້ນຕອນສູນຂອງໂຄງການຂອງທ່ານ.

ຜູ້ໃຫ້ບໍລິການລະບົບຄວາມສ່ຽງສູງ

ຜູ້ໃຫ້ບໍລິການແບກຫາບພາລະທີ່ຫນັກຫນ່ວງທີ່ສຸດເພາະວ່າພວກເຂົາຄວບຄຸມການຕັດສິນໃຈອອກແບບ. ໜ້າວຽກຫຼັກ:

  • ສ້າງຕັ້ງລະບົບການຄຸ້ມຄອງຄຸນນະພາບທີ່ເປັນເອກະສານ (QMS) ທີ່ກວມເອົາການຄຸ້ມຄອງຂໍ້ມູນ, ການຄຸ້ມຄອງຄວາມສ່ຽງ, ການຄວບຄຸມການປ່ຽນແປງ, ແລະຄວາມປອດໄພທາງອິນເຕີເນັດ.
  • ດໍາເນີນການປະເມີນຄວາມສອດຄ່ອງຂອງອະດີດ. ລະບົບ Annex III ສ່ວນໃຫຍ່ສາມາດປະເມີນຕົນເອງໄດ້, ແຕ່ biometric ID, ອຸປະກອນການແພດ, ແລະກໍລະນີການນໍາໃຊ້ທີ່ສໍາຄັນດ້ານຄວາມປອດໄພອື່ນໆຮຽກຮ້ອງໃຫ້ມີການແຈ້ງໃຫ້ຊາບ.
  • ລວບລວມເອກະສານດ້ານວິຊາການ: ສະຖາປັດຕະຍະກໍາແບບຈໍາລອງ, ສາຍຂໍ້ມູນການຝຶກອົບຮົມ, ຕົວຊີ້ວັດການປະເມີນຜົນ, ການທົດສອບຄວາມຫມັ້ນຄົງ, ກົນໄກການກວດກາຂອງມະນຸດ, ແລະແຜນການຕິດຕາມຕະຫຼາດ.
  • ຮ່າງ​ຖະ​ແຫຼງ​ການ​ຂອງ​ສະ​ຫະ​ພາບ​ເອີ​ຣົບ​ກ່ຽວ​ກັບ​ການ​ສອດ​ຄ່ອງ​ກັບ​ເຄື່ອງ​ຫມາຍ CE, ແລະ​ລົງ​ທະ​ບຽນ​ລະ​ບົບ​ໃນ​ຖານ​ຂໍ້​ມູນ AI ​​ສາ​ທາ​ລະ​ນະ​ກ່ອນ​ການ​ນໍາ​ໃຊ້​ຄັ້ງ​ທໍາ​ອິດ.
  • ສ້າງ​ການ​ເຝົ້າ​ລະ​ວັງ​ຫຼັງ​ຕະ​ຫຼາດ​ຢ່າງ​ຕໍ່​ເນື່ອງ​: ບັນ​ທຶກ​ເຫດ​ການ​ຮ້າຍ​ແຮງ​, retrain ໃນ​ເວ​ລາ​ທີ່​ອຸ​ປະ​ກອນ​ການ​ຂ້າມ​ຜ່ານ​, ແລະ​ແຈ້ງ​ໃຫ້​ອົງ​ການ​ທີ່​ມີ​ຄວາມ​ສາ​ມາດ​ພາຍ​ໃນ 15 ວັນ​.

ການລະເລີຍຂັ້ນຕອນເຫຼົ່ານີ້ສາມາດເຮັດໃຫ້ເກີດການປັບໃໝເຖິງ 15 ລ້ານເອີໂຣ ຫຼື 3% ຂອງມູນຄ່າການຄ້າຂາຍທົ່ວໂລກ, ເຖິງແມ່ນວ່າຈະບໍ່ມີອັນຕະລາຍໃດໆເກີດຂຶ້ນ.

ຜູ້ໃຊ້ / ຜູ້ໃຊ້ລະບົບທີ່ມີຄວາມສ່ຽງສູງ

Deployers ແປງລະຫັດເຂົ້າໄປໃນຜົນກະທົບຂອງໂລກທີ່ແທ້ຈິງ, ດັ່ງນັ້ນກົດຫມາຍວ່າດ້ວຍການໃຫ້ພວກເຂົາມີບັນຊີລາຍການກວດກາຂອງຕົນເອງ:

  • ປະຕິບັດລະບົບຢ່າງເຂັ້ມງວດຕາມຄໍາແນະນໍາຂອງຜູ້ໃຫ້ບໍລິການແລະກໍລະນີການນໍາໃຊ້ເອກະສານ.
  • ດໍາເນີນການປະເມີນຜົນກະທົບດ້ານສິດທິພື້ນຖານ (FRIA) ເມື່ອຜູ້ໃຊ້ເປັນເຈົ້າຫນ້າທີ່ສາທາລະນະຫຼືໃນເວລາທີ່ AI ມີອິດທິພົນຕໍ່ການເຂົ້າເຖິງການບໍລິການທີ່ສໍາຄັນເຊັ່ນ: ເຮືອນຫຼືສິນເຊື່ອ.
  • ຮັບປະກັນການກວດກາຂອງມະນຸດທີ່ມີຄຸນວຸດທິ: ພະນັກງານຕ້ອງໄດ້ຮັບການຝຶກອົບຮົມ, ມີອໍານາດທີ່ຈະ override ຜົນໄດ້ຮັບ, ແລະສາມາດອະທິບາຍການຕັດສິນໃຈກັບບຸກຄົນທີ່ໄດ້ຮັບຜົນກະທົບ.
  • ຮັກສາບັນທຶກຢ່າງຫນ້ອຍຫົກປີ, ລວມທັງຂໍ້ມູນການປ້ອນຂໍ້ມູນ, ຜົນຜະລິດ, ການແຊກແຊງຂອງມະນຸດ, ແລະຄວາມຜິດປົກກະຕິຂອງການປະຕິບັດ.
  • ລາຍງານເຫດການຮ້າຍແຮງຕໍ່ທັງຜູ້ໃຫ້ບໍລິການ ແລະອຳນາດແຫ່ງຊາດ ໂດຍບໍ່ມີການ “ຊັກຊ້າເກີນໄປ,” ໂດຍປົກກະຕິແລ້ວ ແປເປັນ 72 ຊົ່ວໂມງ.

ຜູ້ນໍາເຂົ້າ ແລະຈໍາໜ່າຍ

ນັກສະແດງທີ່ແນະນໍາຫຼືຜ່ານລະບົບ AI ໃນ EU ມີຫນ້າທີ່ຮັກສາປະຕູ:

  • ກວດ​ສອບ​ວ່າ​ເຄື່ອງ​ໝາຍ CE, ການ​ປະ​ກາດ​ຄວາມ​ສອດ​ຄ່ອງ​ຂອງ EU, ແລະ​ຄຳ​ແນະ​ນຳ​ມີ​ຢູ່ ແລະ​ກົງ​ກັບ​ການ​ເຮັດ​ວຽກ​ທີ່​ມີ​ຢູ່​ໃນ​ຕະ​ຫຼາດ.
  • ປະຕິເສດການສະຫນອງຜະລິດຕະພັນຖ້າພວກເຂົາຮູ້ - ຫຼືຄວນຮູ້ - ວ່າມັນບໍ່ປະຕິບັດຕາມ; ແທນທີ່ຈະ, ແຈ້ງໃຫ້ຜູ້ໃຫ້ບໍລິການ ແລະເຈົ້າໜ້າທີ່ມີອຳນາດ.
  • ຮັກສາທະບຽນການຮ້ອງຮຽນ ແລະ ການເອີ້ນຄືນ, ເຮັດໃຫ້ມັນມີໃຫ້ເຈົ້າໜ້າທີຕາມການຮ້ອງຂໍ.
  • ຮ່ວມມືໃນການແກ້ໄຂ, ລວມທັງການຖອນຜະລິດຕະພັນຫຼືການແກ້ໄຂຊອບແວ.

ຈຸດປະສົງທົ່ວໄປ AI (ຕົວແບບພື້ນຖານ) ພັນທະ

ກົດຫມາຍວ່າດ້ວຍເພີ່ມກົດລະບຽບ bespoke ສໍາລັບຜູ້ສ້າງ GPAI ຫຼືຕົວແບບພື້ນຖານທີ່ສາມາດຖືກຝັງຢູ່ທຸກບ່ອນ:

  • ສະຫນອງເອກະສານດ້ານວິຊາການທີ່ສົມບູນແບບແລະສະຫຼຸບຊຸດຂໍ້ມູນທີ່ໃຊ້, ລວມທັງສະຖານະພາບໃບອະນຸຍາດແລະແຫຼ່ງທີ່ຕັ້ງພູມສາດ.
  • ເຜີຍແຜ່ຖະແຫຼງການຂອງ ການປະຕິບັດຕາມລິຂະສິດ ແລະ, ຖ້າເປັນໄປໄດ້, ປະຕິບັດກົນໄກການຖອນຕົວສໍາລັບວຽກງານປ້ອງກັນ.
  • ປະຕິບັດແລະເອກະສານການທົດສອບຄວາມສ່ຽງຕໍ່ລະບົບຖ້າຕົວແບບເກີນຂອບເຂດຂອງຄອມພິວເຕີ້ໃນເອກະສານຊ້ອນທ້າຍ XI (ຄິດວ່າ 10^25 FLOPs). ຫນ້າ​ທີ່​ພິ​ເສດ​ໄດ້​ຮັບ​ການ​ເຂົ້າ​ໃນ "GPAI ລະ​ບົບ​" ເຊັ່ນ​: ການ​ສະ​ເຫນີ​ການ​ປະ​ຕິ​ບັດ​ກະ​ສານ​ອ້າງ​ອີງ​ແລະ​ການ​ຮ່ວມ​ມື​ກັບ​ຫ້ອງ​ການ AI ຂອງ EU​.
  • ໂມເດວໂອເພນຊອດມີພັນທະການສຳຜັດທີ່ເບົາບາງລົງ, ແຕ່ຕ້ອງຍັງຄົງມີເນື້ອຫາທີ່ສ້າງລາຍນ້ຳ ແລະ ສະໜອງຄຳແນະນຳການນຳໃຊ້ທີ່ລະອຽດເຖິງຂໍ້ຈຳກັດທີ່ເຫັນໄດ້ຊັດເຈນ.

ໂດຍການຈັດວາງການຄວບຄຸມພາຍໃນຂອງທ່ານກັບລາຍການກວດກາສະເພາະບົດບາດຂ້າງເທິງ, ທ່ານສາມາດປິດຊ່ອງຫວ່າງການປະຕິບັດຕາມທີ່ຊັດເຈນທີ່ສຸດເປັນເວລາດົນນານກ່ອນກໍານົດເວລາການບັງຄັບໃຊ້ໃນເດືອນສິງຫາ 2026 ແລະ 2027.

ຄວາມຕ້ອງການດ້ານວິຊາການແລະອົງການຈັດຕັ້ງເພື່ອບັນລຸການປະຕິບັດຕາມ

ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ ບໍ່ໄດ້ກຳນົດໃຫ້ມີການພິມແບບຂະໜາດດຽວ. ແທນທີ່ຈະ, ມັນກໍານົດຜົນໄດ້ຮັບທີ່ເນັ້ນໃສ່ "ຄວາມຕ້ອງການທີ່ຈໍາເປັນ" ແລະເຮັດໃຫ້ທ່ານມີອິດສະຫຼະທີ່ຈະເລືອກເອົາການຄວບຄຸມທີ່ພິສູດໃຫ້ເຂົາເຈົ້າ. ເຄັດລັບແມ່ນການຜະສົມຜະສານການປະຕິບັດດ້ານວິສະວະກໍາທີ່ດີກັບສຸຂະອະນາໄມດ້ານລະບຽບ, ເພື່ອໃຫ້ທຸກການປັບປຸງແບບຈໍາລອງຫຼືການໂຫຼດຫນ້າຈໍຄືນຂໍ້ມູນອັດຕະໂນມັດຫຼຸດລົງເຂົ້າໄປໃນທໍ່ການປະຕິບັດຕາມແບບຊ້ໍາຊ້ອນ. ຫ້າຕຶກອາຄານລຸ່ມນີ້ແປບົດຄວາມທາງກົດໝາຍຂອງກົດໝາຍໃຫ້ເປັນວຽກທີ່ຊັດເຈນທີ່ຜະລິດຕະພັນ, ຂໍ້ມູນ, ແລະທີມງານກົດໝາຍຂອງທ່ານສາມາດເປັນເຈົ້າຂອງໄດ້.

ການຄຸ້ມຄອງຂໍ້ມູນ ແລະການຄຸ້ມຄອງ

ຂໍ້ມູນທີ່ບໍ່ດີເທົ່າກັບ kryptonite ລະບຽບການ. ມາດຕາ 10 ບັງຄັບໃຫ້ຜູ້ໃຫ້ບໍລິການຂອງ AI ມີຄວາມສ່ຽງສູງທີ່ຈະເອກະສານແລະໃຫ້ເຫດຜົນທຸກ byte ທີ່ເຂົ້າໄປໃນທໍ່.

  • ຈັດການຊຸດຂໍ້ມູນທີ່ມີ ທີ່ກ່ຽວຂ້ອງ, ຕົວແທນ, ບໍ່ມີຄວາມຜິດພາດ, ແລະເຖິງວັນທີ ສໍາລັບປະຊາກອນທີ່ມີຈຸດປະສົງ.
  • ຮັກສາ "ເອກະສານຂໍ້ມູນ" ສໍາລັບແຕ່ລະ corpus: ແຫຼ່ງ, ວັນທີເກັບກໍາ, ເງື່ອນໄຂການອະນຸຍາດ, ຂັ້ນຕອນການປຸງແຕ່ງກ່ອນ, ການກວດສອບຄວາມລໍາອຽງ, ແລະໄລຍະເວລາເກັບຮັກສາ.
  • ຕິດຕາມເຊື້ອສາຍຢູ່ໃນບ່ອນເກັບມ້ຽນທີ່ຄວບຄຸມໂດຍສະບັບເພື່ອໃຫ້ທ່ານສາມາດກັບຄືນໄດ້ຖ້າເຈົ້າຫນ້າທີ່ຕ້ອງການການແກ້ໄຂ.
  • ປະຕິບັດການທົດສອບຄວາມລໍາອຽງແລະຄວາມບໍ່ສົມດຸນໂດຍໃຊ້ວິທີທາງສະຖິຕິ (χ², KS-test, ຫຼືຕົວຊີ້ວັດຄວາມຍຸຕິທໍາແບບບໍ່ເຊື່ອຟັງ) ແລະການປະຕິບັດການຫຼຸດຜ່ອນບັນທຶກ.

ຮັກສາເສັ້ນທາງອັນເຕັມທີ່—ຂໍ້ມູນດິບ, ສະຄຣິບ, ຜົນການທົດສອບ—ເຂົ້າເຖິງໄດ້ ປີ 10; ປ່ອງຢ້ຽມເບິ່ງຄືນຂອງກົດໝາຍແມ່ນຍາວ.

ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ

ມາດຕາ 9 ຕ້ອງການ ກ ຂະບວນການຢ່າງຕໍ່ເນື່ອງແລະເປັນເອກະສານ ທີ່ສະທ້ອນ ISO 31000 ແລະຮ່າງ ISO/IEC 23894.

  1. ກໍານົດອັນຕະລາຍ: ສະຖານະການນໍາໃຊ້ໃນທາງທີ່ຜິດ, ການໂຈມຕີຂອງສັດຕູ, ການລອຍຕົວຂອງຂໍ້ມູນ.
  2. ວິເຄາະຜົນກະທົບ ແລະ ຄວາມເປັນໄປໄດ້; ໃຫ້ຄະແນນເຂົາເຈົ້າໃນລະດັບທົ່ວໄປ (ເຊັ່ນ: risk = probability × severity).
  3. ການ​ຄວບ​ຄຸມ​ການ​ຕັດ​ສິນ​ໃຈ​: ການ​ປົກ​ປ້ອງ​ດ້ານ​ວິ​ຊາ​ການ​, ການ​ຄວບ​ຄຸມ​ຂອງ​ມະ​ນຸດ​, ຂໍ້​ຈໍາ​ກັດ​ຂອງ​ສັນ​ຍາ​.
  4. ກວດສອບການຄວບຄຸມຫຼັງຈາກແຕ່ລະການປັບປຸງທີ່ສໍາຄັນ; feed ການຄົ້ນພົບເຂົ້າໄປໃນ sprint ຕໍ່ໄປ.

ເກັບຮັກສາທຸກສິ່ງທຸກຢ່າງຢູ່ໃນທະບຽນຄວາມສ່ຽງຕໍ່ການດໍາລົງຊີວິດ; ຜູ້ຄວບຄຸມຄາດວ່າຈະເຫັນເວລາ, ເຈົ້າຂອງ, ແລະຫຼັກຖານການປິດ.

ການຄວບຄຸມຂອງມະນຸດແລະຄວາມໂປ່ງໃສໂດຍການອອກແບບ

ມາດຕາ 14 ແລະ 52 ປ່ຽນ “ມະນຸດໃນວົງການ” ເວົ້າເປັນວຽກອອກແບບບັງຄັບ.

  • ກໍານົດຮູບແບບການກວດກາ: ໃນວົງ (ການ​ອະ​ນຸ​ມັດ​ຄູ່​ມື​)​, on-the-loop (ການແຈ້ງເຕືອນໃນເວລາຈິງ), ຫຼື over-the-loop (ການ​ກວດ​ສອບ​ຫຼັງ​ຈາກ​ນັ້ນ​)​.
  • ຝັງຊັ້ນການອະທິບາຍ: ແຜນທີ່ຄວາມເຂັ້ມຂົ້ນ, ຕົວຢ່າງທີ່ກົງກັນຂ້າມ, ກົດລະບຽບການຕັດສິນໃຈທີ່ງ່າຍດາຍ.
  • ໃຫ້ທາງເລືອກໃນການ override ແລະ fallback ທີ່ເປັນທັງສອງ ທາງດ້ານເຕັກນິກສາມາດເຮັດວຽກໄດ້ ແລະ ອະນຸຍາດ​ໂດຍ​ອົງການ.
  • ສະເໜີແຈ້ງການຜູ້ໃຊ້ທີ່ເປັນພາສາທຳມະດາ (“ທ່ານກຳລັງພົວພັນກັບລະບົບ AI”) ແລະເປີດເຜີຍຄະແນນຄວາມໝັ້ນໃຈໃນບ່ອນທີ່ເປັນໄປໄດ້.

ຄວາມທົນທານ, ຄວາມຖືກຕ້ອງ, ແລະຄວາມປອດໄພທາງໄຊເບີ

ພາຍໃຕ້ມາດຕາ 15, ຕົວແບບຕ້ອງຢູ່ໃນອັດຕາຄວາມຜິດພາດທີ່ປະກາດໄວ້ ແລະຕ້ານການແຊກແຊງທີ່ເປັນອັນຕະລາຍ.

  • ກໍານົດຂອບເຂດການປະຕິບັດຕໍາ່ສຸດທີ່; ຕິດ​ຕາມ​ກວດ​ກາ​ຄວາມ​ຖືກ​ຕ້ອງ​, ຄວາມ​ແມ່ນ​ຍໍາ​, recall​, ແລະ calibration drift ໃນ​ການ​ຜະ​ລິດ​.
  • ດໍາເນີນການທົດສອບຄວາມຢືດຢຸ່ນຂອງສັດຕູ (FGSM, PGD, ການເປັນພິດຂອງຂໍ້ມູນ) ກ່ອນທີ່ຈະອອກແຕ່ລະຄັ້ງ.
  • ໂຄງສ້າງພື້ນຖານແຂງໃຫ້ສອດຄ່ອງກັບ NIS2 ແລະ ETSI EN 303 645: APIs ທີ່ປອດໄພ, ການເຂົ້າເຖິງທີ່ອີງໃສ່ບົດບາດ, ຈຸດກວດກາແບບເຂົ້າລະຫັດ.
  • ກະກຽມແຜນການຫຼຸດລົງ—ຄ່າເລີ່ມຕົ້ນຂອງໂໝດປອດໄພ, ການເພີ່ມການກວດສອບຂອງມະນຸດ—ເມື່ອປະສິດທິພາບຫຼຸດລົງຕໍ່າກວ່າແຖບຄວາມທົນທານ.

ການບັນທຶກ, ການບັນທຶກ, ແລະເອກະສານ CE

ຖ້າມັນບໍ່ໄດ້ຖືກຂຽນລົງ, ມັນບໍ່ເຄີຍເກີດຂຶ້ນ - mantra ທີ່ກາຍເປັນກົດຫມາຍໃນມາດຕາ 11 ແລະ 19.

ເອກະສານ ເນື້ອໃນຫຼັກ ການເກັບຮັກສາ
ເອກະສານດ້ານວິຊາການ ສະຖາປັດຕະຍະກໍາແບບຈໍາລອງ, ສະຫຼຸບຂໍ້ມູນການຝຶກອົບຮົມ, ຕົວຊີ້ວັດການປະເມີນຜົນ, ການຄວບຄຸມຄວາມປອດໄພທາງອິນເຕີເນັດ ວົງຈອນຊີວິດ + 10 ປີ
ຂໍ້​ມູນ​ບັນ​ທຶກ ວັດສະດຸປ້ອນ, ຜົນໄດ້ຮັບ, override ເຫດການ, ສະຖິຕິການປະຕິບັດ, ເຫດການ ≥ 6 ປີ
ຖະແຫຼງການແຫ່ງຄວາມສອດຄ່ອງຂອງສະຫະພາບເອີຣົບ ຄໍາຖະແຫຼງການສອດຄ່ອງ, ມາດຕະຖານທີ່ນໍາໃຊ້, ລາຍລະອຽດຂອງຜູ້ໃຫ້ບໍລິການ ມີໃຫ້ສາທາລະນະ
ແຜນການຕິດຕາມຕະຫຼາດຫຼັງຕະຫຼາດ KPIs, ຊ່ອງທາງການລາຍງານ, ເກນເລີ່ມຕົ້ນ ປັບປຸງຢ່າງຕໍ່ເນື່ອງ

ບັນທຶກການບັນທຶກອັດຕະໂນມັດໃນບ່ອນທີ່ເປັນໄປໄດ້; ໃຊ້ການເກັບຮັກສາທີ່ບໍ່ສາມາດປ່ຽນແປງໄດ້ ຫຼືບັນຊີລາຍການຕໍ່ທ້າຍເທົ່ານັ້ນ ເພື່ອໃຫ້ຫຼັກຖານຢູ່ລອດຈາກການກວດສອບທາງນິຕິສາດ. ເມື່ອ dossier ສໍາເລັດ, affix the CE marking ແລະສົ່ງລະບົບໄປຍັງຖານຂໍ້ມູນ EU - ພຽງແຕ່ຫຼັງຈາກນັ້ນມັນອາດຈະຕີຕະຫຼາດ.

ໂດຍການວາງສາຍການຄວບຄຸມທາງດ້ານວິຊາການ ແລະ ການຈັດຕັ້ງເຫຼົ່ານີ້ເຂົ້າໃນວົງຈອນຊີວິດການພັດທະນາຂອງທ່ານ, ທ່ານປ່ຽນການປະຕິບັດຕາມຈາກການຂູດຮີດໃນນາທີສຸດທ້າຍໄປສູ່ຄວາມສາມາດສະເໝີທີ່ຜູ້ກວດສອບຈະຮັບຮູ້—ແລະໃຫ້ລາງວັນ.

ການລົງໂທດ, ການແກ້ໄຂ, ແລະການເປີດເຜີຍການດໍາເນີນຄະດີ

ກົດໝາຍ​ວ່າ​ດ້ວຍ​ປັນຍາ​ທຽມ​ຂອງ​ສະຫະພາບ​ເອີ​ລົບ​ບໍ່​ໄດ້​ອີງ​ໃສ່​ການ​ເວົ້າ​ທີ່​ສຸຂຸມ; ມັນໃຊ້ໄມ້ທ່ອນໃຫຍ່ພໍທີ່ຈະເຮັດໃຫ້ຜູ້ບໍລິຫານໄດ້ຮັບໄຊຊະນະ. ການລົງໂທດທາງດ້ານການເງິນສະທ້ອນເຖິງຂະຫນາດຂອງ GDPR, ແຕ່ກົດຫມາຍດັ່ງກ່າວຍັງໃຫ້ອໍານາດອໍານາດ ດຶງຜະລິດຕະພັນອອກຈາກຊັ້ນວາງ, ສັ່ງລຶບຂໍ້ມູນ, ຫຼືບັງຄັບໃຫ້ມີການຝຶກອົບຮົມແບບຈໍາລອງ ຖ້າ​ຫາກ​ວ່າ​ຄວາມ​ສ່ຽງ​ຍັງ​ບໍ່​ໄດ້​ຫຼຸດ​ຜ່ອນ​. ການປັບໃໝແມ່ນຖືກຈຳກັດໄວ້ໂດຍອັນໃດທີ່ສູງກວ່າ - ຈໍານວນເງິນເອີໂຣຢ່າງແທ້ຈິງ ຫຼືອັດຕາສ່ວນຂອງລາຍຮັບທົ່ວໂລກຂອງປີກ່ອນ - ດັ່ງນັ້ນເຖິງແມ່ນວ່າການເລີ່ມຕົ້ນໃນຂັ້ນຕອນຕົ້ນໆກໍ່ຫຼີກລ່ຽງຄວາມບໍ່ພໍໃຈ. ຕາຕະລາງຂ້າງລຸ່ມນີ້ສະຫຼຸບລະດັບການລົງໂທດ:

ປະເພດການລະເມີດ ສູງສຸດຄົງທີ່ປັບໄຫມ ສູງ​ສຸດ % ຂອງ​ຍອດ​ມູນ​ຄ່າ​ທົ່ວ​ໂລກ​ ຕົວກະຕຸ້ນປົກກະຕິ
ການປະຕິບັດທີ່ຫ້າມ (ສິນລະປະ. 5) €35 m 7% ການໃຫ້ຄະແນນສັງຄົມ, ການເຝົ້າລະວັງ biometric ທີ່ຜິດກົດຫມາຍ
ພັນທະທີ່ມີຄວາມສ່ຽງສູງ (ສິນລະປະ. 8-15) €15 m 3% ຂາດການປະເມີນຄວາມສອດຄ່ອງ, ການຄຸ້ມຄອງຂໍ້ມູນບົກພ່ອງ
ຂໍ້ມູນ & ການລົງທະບຽນລົ້ມເຫລວ €7.5 m 1% ເອ​ກະ​ສານ​ເຕັກ​ນິກ​ທີ່​ບໍ່​ຖືກ​ຕ້ອງ​, ການ​ລາຍ​ງານ​ເຫດ​ການ​ຊັກ​ຊ້າ​
ແຈ້ງການບໍ່ປະຕິບັດຕາມປົກກະຕິ € 500K n / a ການລະເມີດເລັກນ້ອຍຫຼັງຈາກການເຕືອນ

ເຈົ້າຫນ້າທີ່ຄວບຄຸມສາມາດກໍານົດການຈ່າຍຄ່າປັບໄຫມປະຈໍາວັນເພື່ອເລັ່ງການແກ້ໄຂ. ຜະລິດຕະພັນທີ່ຍັງສ້າງ "ຄວາມສ່ຽງທີ່ຮ້າຍແຮງ" ປະເຊີນກັບການບັງຄັບ recall ຫຼືການຖອນຕະຫຼາດ— ການຕີຊື່ສຽງບໍ່ມີແຜນການ PR ສາມາດປິດບັງໄດ້.

ການລົງໂທດທາງບໍລິຫານທຽບກັບຄວາມຮັບຜິດຊອບທາງແພ່ງ

ການປັບໃໝຕາມລະບຽບບໍ່ແມ່ນຈຸດຈົບຂອງເລື່ອງ. ຄໍາສັ່ງກ່ຽວກັບຄວາມຮັບຜິດຊອບ AI (AILD) ທີ່ກໍາລັງຈະມາເຖິງແລະການປັບປຸງໃຫມ່ຄໍາສັ່ງຄວາມຮັບຜິດຊອບຜະລິດຕະພັນ (PLD) ເປີດເສັ້ນທາງຂະຫນານສໍາລັບ ການຮຽກຮ້ອງຄວາມເສຍຫາຍສ່ວນຕົວ. ຜູ້ຖືກເຄາະຮ້າຍທີ່ໄດ້ຮັບບາດເຈັບຈາກການຕັດສິນໃຈ AI ຈະມີຄວາມສຸກ:

  • A ການ​ຄາດ​ຄະ​ເນ​ທີ່​ສາ​ມາດ​ແກ້​ໄຂ​ຂອງ​ເຫດ​ຜົນ​ ເມື່ອຜູ້ໃຫ້ບໍລິການລະເມີດ AI ປະຕິບັດຫນ້າທີ່, ຫຼຸດຜ່ອນພາລະຂອງຫຼັກຖານ.
  • ຂະຫຍາຍສິດທິການເປີດເຜີຍ, ປ່ອຍໃຫ້ໂຈດຮ້ອງຂໍບັນທຶກແລະການປະເມີນຄວາມສ່ຽງທີ່ປົກກະຕິຈະຢູ່ໃນເຮືອນ.
  • ກົດລະບຽບທີ່ສອດຄ່ອງກັນໃນທົ່ວປະເທດສະມາຊິກ, ແຕ່ກົດໝາຍທໍລະຍົດແຫ່ງຊາດຍັງອາດຈະໃຫ້ມາດຕະຖານທີ່ເຂັ້ມງວດກວ່າ (ເຊັ່ນ: ຄຳສອນທີ່ບໍ່ຖືກຕ້ອງຂອງຊາວໂຮນລັງ).

ດັ່ງນັ້ນ, ບໍລິສັດສາມາດປະເຊີນກັບການລົງໂທດຫນຶ່ງຕໍ່ສອງ: ການປັບໃໝດ້ານບໍລິຫານຫຼາຍລ້ານເອີໂຣຕາມມາດ້ວຍການກະທໍາຂອງຊັ້ນພົນລະເຮືອນ, ໂດຍສະເພາະໃນຂົງເຂດເຊັ່ນການປະຕິເສດສິນເຊື່ອຫຼືການຈໍາແນກການຈ້າງ.

ແກ້ໄຂກົນໄກ ແລະການປົກປ້ອງຜູ້ແຈ້ງຂ່າວ

ບຸກຄົນ ແລະອົງການ NGO ອາດຈະຍື່ນຄໍາຮ້ອງທຸກໂດຍກົງກັບເຂົາເຈົ້າ ອຳນາດ​ການ​ປົກຄອງ​ແຫ່ງ​ຊາດ ຫຼືຫ້ອງການ AI ຂອງ EU. ເຈົ້າ ໜ້າ ທີ່ຕ້ອງສືບສວນພາຍໃນ "ໄລຍະເວລາທີ່ສົມເຫດສົມຜົນ" ແລະສາມາດໃຫ້ມາດຕະການຊົ່ວຄາວ, ລວມທັງຄໍາສັ່ງໂຈະ. ຜູ້​ທີ່​ໄດ້​ຮັບ​ຜົນ​ກະ​ທົບ​ຍັງ​ຄົງ​ຈະ​ໄດ້​ຮັບ​ການ​ແກ້​ໄຂ​ທາງ​ຕຸ​ລາ​ການ - ຄໍາ​ສັ່ງ​, ການ​ຟ້ອງ​ຮ້ອງ​ການ​ຊົດ​ເຊີຍ​, ແລະ​ການ​ຮ້ອງ​ຟ້ອງ​ຕໍ່​ການ​ຕັດ​ສິນ​ໃຈ​ຂອງ​ການ​ຊີ້​ນໍາ​.

ພະນັກງານ ຜູ້​ທີ່​ເຫັນ​ການ​ກະທຳ​ຜິດ​ແມ່ນ​ຖືກ​ປົກ​ປ້ອງ​ພາຍ​ໃຕ້ EU ຄຳສັ່ງ Whistleblowing:

  • ຊ່ອງທາງການລາຍງານຄວາມລັບແມ່ນມີຄວາມຈໍາເປັນສໍາລັບບໍລິສັດທີ່ມີ 50+ ພະນັກງານ.
  • ການແກ້ແຄ້ນ - ການໄລ່ອອກ, ການເລື່ອນຊັ້ນ, ການຂົ່ມຂູ່ - ແມ່ນຖືກຫ້າມຢ່າງຈະແຈ້ງ.
  • Whistleblowers ອາດຈະ escalated ພາຍນອກກັບຜູ້ຄວບຄຸມຫຼືຫນັງສືພິມຖ້າຫາກວ່າເສັ້ນທາງພາຍໃນລົ້ມເຫລວ.

ການສ້າງສາຍການລາຍງານທີ່ບໍ່ເປີດເຜີຍຊື່ທີ່ມີການໂຄສະນາດີແມ່ນເປັນທັງຄວາມຕ້ອງການທາງດ້ານກົດໝາຍ ແລະລະບົບການເຕືອນໄພລ່ວງໜ້າທີ່ສາມາດຊ່ວຍປະຢັດທ່ານຈາກການບັງຄັບໃຊ້ຄ່າໃຊ້ຈ່າຍທີ່ແພງຂຶ້ນ.

ການສ້າງແຜນທີ່ AI Act ກັບ GDPR, NIS2, ຄວາມປອດໄພຂອງຜະລິດຕະພັນ, ແລະກົດລະບຽບຂອງຂະແຫນງການ

ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍວ່າດ້ວຍ AI) ບໍ່ແມ່ນເກາະທີ່ໂດດດ່ຽວ. ມັນສຽບເຂົ້າໄປໃນມະຫາສະຫມຸດທີ່ມີການປະຕິບັດຕາມທີ່ແອອັດທີ່ປະກອບມີການປົກປ້ອງຂໍ້ມູນ, ຄວາມປອດໄພທາງອິນເຕີເນັດ, ແລະກອບຄວາມປອດໄພໃນແນວຕັ້ງ. ການບໍ່ສົນໃຈກະແສຂ້າມເຫຼົ່ານັ້ນແມ່ນມີຄວາມສ່ຽງ: ລະບົບ AI ທີ່ຫມາຍໃສ່ທຸກໆກ່ອງ AI Act ຍັງສາມາດລະເມີດ GDPR ຫຼື NIS2, ແລະໃນທາງກັບກັນ. ຂ້າງລຸ່ມນີ້ພວກເຮົາເນັ້ນໃສ່ຈຸດສໍາພັດທີ່ສໍາຄັນເພື່ອໃຫ້ທີມງານທາງດ້ານກົດຫມາຍ, ຄວາມປອດໄພ, ແລະຜະລິດຕະພັນຂອງທ່ານສາມາດສ້າງແຜນທີ່ການຄວບຄຸມແບບປະສົມປະສານດຽວ, ແທນທີ່ຈະ juggling ສີ່ລາຍການກວດກາແຍກຕ່າງຫາກ.

ທັບຊ້ອນກັນກັບ GDPR ແລະ ePrivacy

  • ພື້ນຖານທີ່ຖືກຕ້ອງຕາມກົດໝາຍ ແລະຂໍ້ຈຳກັດຈຸດປະສົງ: ການປະມວນຜົນຂໍ້ມູນສ່ວນຕົວພາຍໃນຕົວແບບທີ່ມີຄວາມສ່ຽງສູງຕ້ອງຕອບສະໜອງຢ່າງໜ້ອຍໜຶ່ງສ່ວນ GDPR (ມັກຈະໄດ້ຮັບຄວາມສົນໃຈ ຫຼື ການຍິນຍອມທີ່ຖືກຕ້ອງ).
  • ຂໍ້ຈໍາກັດການຕັດສິນໃຈອັດຕະໂນມັດ: ມາດຕາ 22 GDPR ຈໍາກັດການຕັດສິນໃຈອັດຕະໂນມັດຢ່າງເຕັມສ່ວນໂດຍມີຜົນກະທົບທາງດ້ານກົດຫມາຍຫຼືທີ່ສໍາຄັນ; ຂໍ້ກໍານົດກ່ຽວກັບການຄວບຄຸມມະນຸດຂອງກົດໝາຍ AI ມັກຈະເຮັດໜ້າທີ່ເປັນການປົກປ້ອງທາງດ້ານວິຊາການທີ່ປົດລັອກມາດຕາ 22(2)(b) ຫຼື (c) ການຍົກເວັ້ນ.
  • ສະຖານະການຄວບຄຸມຮ່ວມກັນ: ເມື່ອຜູ້ປະຕິບັດການປັບ GPAI ສະຫນອງໃຫ້ໂດຍຜູ້ຂາຍ, ທັງສອງອາດຈະກາຍເປັນ. ຜູ້​ຄວບ​ຄຸມ​ຮ່ວມ​ພາຍໃຕ້ GDPR—ວາງແຜນຂໍ້ຕົກລົງການປະມວນຜົນຂໍ້ມູນຕາມຄວາມເໝາະສົມ.
  • ໜ້າທີ່ຄວາມໂປ່ງໃສ ແຕະສອງເທື່ອ: ກົດໝາຍ AI ກຳນົດການເປີດເຜີຍຂໍ້ມູນຂອງຜູ້ໃຊ້ (“AI ສ້າງຂຶ້ນ”), ໃນຂະນະທີ່ GDPR ມາດຕາ 12-14 ຕ້ອງການແຈ້ງການຄວາມເປັນສ່ວນຕົວທີ່ລາຍລະອຽດການໄຫຼເຂົ້າຂອງຂໍ້ມູນ, ການເກັບຮັກສາ ແລະສິດ. ຮ່າງແຈ້ງການຊັ້ນດຽວທີ່ກວມເອົາທັງສອງ.

Cybersecurity ແລະ NIS2 Synergies

NIS2 ຮຽກຮ້ອງໃຫ້ມີການປະເມີນຄວາມສ່ຽງ, ການຕອບໂຕ້ເຫດການ, ແລະຄວາມປອດໄພຕ່ອງໂສ້ການສະຫນອງສໍາລັບຫນ່ວຍງານ "ສໍາຄັນ" ແລະ "ສໍາຄັນ". ກົດໝາຍວ່າດ້ວຍ AI ສະທ້ອນເຖິງວ່າໂດຍການຮຽກຮ້ອງໃຫ້ມີການທົດສອບຄວາມແຂງແຮງ, ການກວດສອບຄວາມສ່ຽງ, ແລະການລາຍງານການລະເມີດພາຍໃນ 15 ມື້. ນໍາໃຊ້ຂັ້ນຕອນການເຮັດວຽກ SOC ຫນຶ່ງ:

  1. ດຳ​ເນີນ​ການ​ທົດ​ສອບ​ຄວາມ​ເຂັ້ມ​ແຂງ​ຂອງ​ຝ່າຍ​ຄ້ານ​ໃນ​ລະ​ຫວ່າງ​ການ​ປະ​ເມີນ​ຄວາມ​ສອດ​ຄ່ອງ​ກັບ​ກົດ​ໝາຍ AI.
  2. ປ້ອນຜົນໄດ້ຮັບເຂົ້າໃນທະບຽນຄວາມສ່ຽງ NIS2.
  3. ໃຊ້ປື້ມບັນທຶກເຫດການ 72 ຊົ່ວໂມງດຽວກັນກັບທັງສອງລະບອບ.

ການປະສົມປະສານກັບນິຕິກໍາຜະລິດຕະພັນທີ່ມີຢູ່ແລ້ວ

ຖ້າ AI ຂອງເຈົ້າເປັນອົງປະກອບຄວາມປອດໄພຂອງຜະລິດຕະພັນທີ່ຖືກຄວບຄຸມ (ອຸປະກອນການແພດ, ເຄື່ອງຈັກ, ເຄື່ອງຫຼີ້ນ, ຍົກ, ລະບົບຍານຍົນ), ທ່ານຕ້ອງປະຕິບັດ ດຽວ ການປະເມີນຄວາມສອດຄ່ອງທີ່ກວມເອົາ:

  • ຄວາມ​ປອດ​ໄພ​ທົ່ວ​ໄປ​ຫຼື​ຄວາມ​ຕ້ອງ​ການ​ປະ​ຕິ​ບັດ​ຕາມ​ກົດ​ຫມາຍ​ຂະ​ແຫນງ​ການ​; ແລະ
  • ຫຼັກການຂອງ AI Act (ການຄຸ້ມຄອງຄວາມສ່ຽງ, ການຄຸ້ມຄອງຂໍ້ມູນ, ການຄວບຄຸມຂອງມະນຸດ).

ມາດຕະຖານທີ່ສອດຄ່ອງກັນພາຍໃຕ້ກອບນິຕິກໍາໃຫມ່ໃນໄວໆນີ້ຈະອ້າງອີງທັງສອງຊຸດຂອງຄວາມຕ້ອງການ, ອະນຸຍາດໃຫ້ເອກະສານດ້ານວິຊາການຫນຶ່ງແລະເຄື່ອງຫມາຍ CE ຫນຶ່ງ.

ຕົວຢ່າງສະເພາະຂອງຂະແໜງການ

  • ການບໍລິການດ້ານການເງິນ: ສົມທົບການລົງທືນກົດໝາຍ AI ກັບຂໍ້ແນະນຳ EBA ກ່ຽວກັບການຕ້ານການຟອກເງິນ ເພື່ອເປັນຕົວແບບຫຼັກຖານທີ່ມີຄວາມຍຸຕິທຳ ແລະ ການອະທິບາຍ.
  • ການຄຸ້ມຄອງຕາຂ່າຍໄຟຟ້າ: mesh AI Act ຄວບຄຸມຄວາມສ່ຽງທີ່ມີຄວາມຕ້ອງການຄວາມປອດໄພທາງອິນເຕີເນັດຂອງ ENTSO-E ສໍາລັບລະບົບ SCADA.
  • ຍານຍົນ: UNECE WP.29 ມອບສິດການຄຸ້ມຄອງການປັບປຸງຊອບແວ; ເຊື່ອມໂຍງບັນທຶກການປັບປຸງເຫຼົ່ານັ້ນເຂົ້າໃນການຕິດຕາມຕະຫຼາດຫຼັງຕະຫຼາດ AI Act ຂອງທ່ານ.
  • ການດູແລສຸຂະພາບ: ຈັບຄູ່ ISO 13485 QMS artifacts ກັບເອກະສານຊຸດຂໍ້ມູນຂອງ AI Act ເພື່ອຫຼີກເວັ້ນການກວດສອບຊ້ໍາຊ້ອນ.

ການປຽບທຽບລະຫວ່າງປະເທດ

ບໍລິສັດທົ່ວໂລກຕ້ອງປອງດອງກັນກັບກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ (ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດ (AI)) ກັບກົດລະບຽບທີ່ພົ້ນເດັ່ນຢູ່ບ່ອນອື່ນ:

jurisdiction ເຄື່ອງ​ມື​ທີ່​ສໍາ​ຄັນ​ ຄວາມແຕກຕ່າງທີ່ໂດດເດັ່ນ
US ຄໍາສັ່ງບໍລິຫານ & NIST AI RMF ສະໝັກໃຈ ແຕ່ອາດຈະກາຍເປັນພື້ນຖານການຈັດຊື້ຂອງລັດຖະບານກາງ
ຈີນ ມາດຕະການ Gen-AI ຊົ່ວຄາວ ການລົງທະບຽນຊື່ແທ້ ແລະການກັ່ນຕອງເນື້ອຫາແມ່ນບັງຄັບ
UK ໂຄງຮ່າງການສົ່ງເສີມນະວັດຕະກໍາ ຄໍາແນະນໍາສະເພາະຂອງຜູ້ຄວບຄຸມ, ບໍ່ມີກົດຫມາຍແນວນອນເທື່ອ

ໂດຍການສ້າງແຜນທີ່ທັບຊ້ອນກັນໃນຕອນຕົ້ນ, ທີມງານຫຼາຍປະເທດສາມາດອອກແບບກອບການຄວບຄຸມທີ່ຕອບສະຫນອງກົດລະບຽບທີ່ເຂັ້ມງວດທີ່ສຸດທີ່ກໍານົດໄວ້ກ່ອນ, ຫຼັງຈາກນັ້ນກົດລົງບ່ອນທີ່ກົດຫມາຍທ້ອງຖິ່ນອ່ອນກວ່າ.

ບັນຊີລາຍຊື່ການປະຕິບັດຕາມການປະຕິບັດແລະການປະຕິບັດທີ່ດີທີ່ສຸດ

ການປ່ຽນບົດຄວາມ ແລະຄຳບັນຍາຍຂອງກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍວ່າດ້ວຍ AI) ໄປສູ່ການປະຕິບັດປະຈໍາວັນສາມາດຮູ້ສຶກເປັນຕາຢ້ານ. ເຄັດລັບແມ່ນເພື່ອທໍາລາຍການເດີນທາງເຂົ້າໄປໃນການກະທໍາຂະຫນາດທີ່ທີມງານທາງດ້ານກົດຫມາຍ, ຜະລິດຕະພັນ, ແລະຄວາມປອດໄພສາມາດເປັນເຈົ້າຂອງໄດ້. ໃຊ້ແຜນທີ່ເສັ້ນທາງ 12 ຂັ້ນຕອນຂ້າງລຸ່ມນີ້ເປັນແຜນການດໍາລົງຊີວິດ, ກວດເບິ່ງມັນຢູ່ໃນທຸກໆການສາທິດແລະກອງປະຊຸມຄະນະກໍາມະຈົນກ່ວາເດືອນສິງຫາ 2027.

  1. ສິນຄ້າຄົງຄັງທຸກໆ AI ຫຼືສ່ວນປະກອບຂອງລະບົບສູດການຄິດໄລ່ໃນການຜະລິດແລະ R&D.
  2. ຈັດແບ່ງລະດັບຄວາມສ່ຽງຂອງແຕ່ລະລະບົບແລະພາລະບົດບາດນັກສະແດງຂອງທ່ານ (ຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້, ຜູ້ນໍາເຂົ້າ, ຜູ້ຈັດຈໍາຫນ່າຍ).
  3. ແຜນ​ທີ່​ກົດ​ຫມາຍ​ທີ່​ໃຊ້​ໄດ້ (GDPR​, NIS2​, ລະ​ບຽບ​ຂະ​ແຫນງ​ການ​) ແລະ​ກໍາ​ນົດ​ການ​ທັບ​ຊ້ອນ​.
  4. ປະຕິບັດການວິເຄາະຊ່ອງຫວ່າງຕໍ່ກັບຂໍ້ກໍານົດທີ່ສໍາຄັນຂອງ AI Act.
  5. ອອກແບບ ຫຼືປັບປຸງລະບົບການຄຸ້ມຄອງຄຸນນະພາບ (QMS).
  6. ຢືນ​ຂຶ້ນ​ໂຄງ​ປະ​ກອບ​ການ​ຄຸ້ມ​ຄອງ​ຫຼາຍ​ວິ​ຊາ​ການ​.
  7. ຮ່າງແມ່ແບບເອກະສານດ້ານວິຊາການແລະເລີ່ມຕົ້ນການຕື່ມຂໍ້ມູນໃສ່.
  8. ສ້າງທໍ່ຂໍ້ມູນ-ການປົກຄອງ ແລະການທົດສອບອະຄະຕິ.
  9. ດໍາເນີນການປະເມີນຄວາມສອດຄ່ອງເບື້ອງຕົ້ນຫຼືການກວດສອບແບບແຫ້ງແລ້ງ.
  10. ຝຶກອົບຮົມພະນັກງານ-ວິສະວະກອນ, ເຈົ້າຂອງຄວາມສ່ຽງ, ແລະການຊ່ວຍເຫຼືອລູກຄ້າ.
  11. ເປີດຕົວການຕິດຕາມຕະຫຼາດຫຼັງຕະຫຼາດ ແລະຂັ້ນຕອນການລາຍງານເຫດການ.
  12. ກຳນົດເວລາການທົບທວນແຕ່ລະໄລຍະ ແລະການປັບປຸງຢ່າງຕໍ່ເນື່ອງ.

ການປະເມີນຄວາມພ້ອມ ແລະການວິເຄາະຊ່ອງຫວ່າງ

ເລີ່ມຕົ້ນດ້ວຍຕາຕະລາງຕາຕະລາງຫຼືຕາຕະລາງປີ້: ຊື່ລະບົບ, ຈຸດປະສົງ, ແຫຼ່ງຂໍ້ມູນການຝຶກອົບຮົມ, ລະດັບຄວາມສ່ຽງ, ການຄວບຄຸມທີ່ມີຢູ່ແລ້ວ, ແລະຊ່ອງຫວ່າງເປີດ. ກຳນົດແຕ່ລະຊ່ອງຫວ່າງໃຫ້ເຈົ້າຂອງ ແລະກຳນົດເວລາ. ຄະແນນຄວາມສ່ຽງທີ່ຍັງເຫຼືອຫຼັງຈາກການປິດທຸກໆຄັ້ງ; ຜູ້ຄວບຄຸມມັກເຫັນເສັ້ນທາງການປັບປຸງແບບຊ້ຳໆນັ້ນ.

ການສ້າງໂຄງສ້າງການປົກຄອງທີ່ຖືກຕ້ອງ

ເອົາປະຊາຊົນ, ບໍ່ພຽງແຕ່ນະໂຍບາຍ, ຮັບຜິດຊອບ:

  • ເຈົ້າຫນ້າທີ່ປະຕິບັດຕາມ AI: ຄໍດຽວເພື່ອ choke.
  • ຄະ​ນະ​ກໍາ​ມະ​ຈັນ​ຍາ​ບັນ​ຂ້າມ​ຫນ້າ​ທີ່​: ຜະ​ລິດ​ຕະ​ພັນ​, ດ້ານ​ກົດ​ຫມາຍ​, ຄວາມ​ປອດ​ໄພ​, HR​.
  • ຜູ້ກວດສອບພາຍນອກ ຫຼືການຕິດຕໍ່ພົວພັນກັບອົງການທີ່ໄດ້ຮັບການແຈ້ງເຕືອນ.
  • ການເຊື່ອມຕໍ່ທີ່ເຄັ່ງຄັດກັບ DPO ແລະ CISO ຂອງທ່ານເພື່ອຫຼີກເວັ້ນການຕັດສິນໃຈທີ່ບໍ່ມີປະໂຫຍດ.

ເອກະສານກອງປະຊຸມ cadence, ສິດການຕັດສິນໃຈ, ແລະເສັ້ນທາງ escalation.

ເອກະສານ ແລະເຄື່ອງມື

ມາດຕະຖານຂອງ artefacts ດັ່ງນັ້ນວິສະວະກອນບໍ່ໄດ້ reinventing ລໍ້:

ແມ່ແບບ ຈຸດປະສົງ ຮູບແບບທີ່ແນະນໍາ
ບັດຕົວແບບ ຄວາມສາມາດ, ຂີດຈຳກັດ, ວັດແທກ Markdown + JSON
Data Sheet ແຫຼ່ງຂໍ້ມູນ, ໃບອະນຸຍາດ, ການທົດສອບຄວາມລໍາອຽງ ຕາຕະລາງ
ບົດລາຍງານຄວາມໂປ່ງໃສ ການເປີດເຜີຍທີ່ປະເຊີນກັບຜູ້ໃຊ້ HTML / PDF
ສິດທິພື້ນຖານ IA ພະນັກງານພາກລັດ ເຄື່ອງມືທີ່ອີງໃສ່ແບບຟອມ

ການຊ່ວຍເຫຼືອໃນແຫຼ່ງເປີດ: EU AI Toolkit, ISO/IEC 42001 ຮ່າງລາຍການກວດສອບ, ແລະ GitHub repos ສໍາລັບ metrics bias.

ການຄຸ້ມຄອງຜູ້ຂາຍ ແລະລະບົບຕ່ອງໂສ້ການສະໜອງ

Flow AI Act ຫນ້າທີ່ລົງລຸ່ມ:

  • ຕື່ມການຮັບປະກັນການປະເມີນຄວາມສອດຄ່ອງ ແລະສິດທິໃນການກວດສອບ ສັນຍາ.
  • ຮຽກຮ້ອງໃຫ້ຜູ້ສະຫນອງແບ່ງປັນບັດແບບຈໍາລອງ, ຜົນການທົດສອບຄວາມທົນທານ, ແລະບັນທຶກເຫດການ.
  • ຕັ້ງຄ່າ Slack ຫຼືແຖວປີ້ທີ່ໃຊ້ຮ່ວມກັນສໍາລັບການເປີດເຜີຍຄວາມອ່ອນແອຢ່າງໄວວາ.

ການຕິດຕາມຢ່າງຕໍ່ເນື່ອງ ແລະການປັບປຸງວົງຈອນຊີວິດແບບຈໍາລອງ

ການ​ຕິດ​ຕາມ​ກວດ​ກາ​ກ່ອນ​ການ​ນຳ​ໃຊ້, ການ​ນຳ​ໃຊ້, ແລະ​ຫຼັງ​ການ​ຕິດ​ຕັ້ງ​ຄວນ​ຈະ​ໝົດ​ໄປ​ໃນ​ການ​ຕິດ​ຕັ້ງ telemetry ດຽວ​ກັນ. ກະຕຸ້ນການປະເມີນຄືນເມື່ອ:

  • ການປ່ຽນແປງການແຈກຢາຍຂໍ້ມູນການປ້ອນຂໍ້ມູນ (KL divergence > ເກນກຳນົດໄວ້ລ່ວງໜ້າ).
  • ຄວາມຖືກຕ້ອງຫຼຸດລົງຕໍ່າສຸດທີ່ປະກາດໄວ້.
  • ເຫດການຮ້າຍແຮງ ຫຼື ການພາດໃກ້ຈະຖືກບັນທຶກ.

ປິດຮອບດ້ວຍການທົບທວນດ້ານການປົກຄອງປະຈຳໄຕມາດ ແລະ ການກວດສອບພາຍນອກປະຈຳປີ—ຫຼັກຖານສະແດງວ່າການປະຕິບັດຕາມບໍ່ແມ່ນໂຄງການດຽວ ແຕ່ເປັນຄວາມສາມາດຢືນ.

FAQ: ຄໍາຕອບດ່ວນຕໍ່ກັບຄໍາຖາມທົ່ວໄປ

ກົດໝາຍ AI ຂອງ EU ມີຜົນບັງຄັບໃຊ້ແລ້ວບໍ?
ແມ່ນແລ້ວ. ລະບຽບການ (EU) 2024/1689 ໄດ້ມີຜົນບັງຄັບໃຊ້ໃນວັນທີ 1 ສິງຫາ 2024. ແນວໃດກໍ່ຕາມ, ໄລຍະພັນທະທີ່ຊັດເຈນທີ່ສຸດໃນໄລຍະຕໍ່ມາ: ການປະຕິບັດການຫ້າມຈະຫາຍໄປພາຍໃນເດືອນກຸມພາ 2025, ກົດລະບຽບຄວາມໂປ່ງໃສເລີ່ມແຕ່ເດືອນສິງຫາ 2025, ຫນ້າທີ່ມີຄວາມສ່ຽງສູງມາຮອດເດືອນສິງຫາ 2026 ( biometrics ສິງຫາ 2027). ດັ່ງນັ້ນໂມງແມ່ນ ticking ເຖິງແມ່ນວ່າຄໍາຮ້ອງສະຫມັກເຕັມແມ່ນຍັງ staged.

ສີ່ລະດັບຄວາມສ່ຽງແມ່ນຫຍັງ?
ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບຈັດກຸ່ມລະບົບຕ່າງໆເປັນ (1) ຄວາມສ່ຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້—ຖືກຫ້າມທັງໝົດ; (2) ຄວາມສ່ຽງສູງ - ອະນຸຍາດໃຫ້ພຽງແຕ່ຫຼັງຈາກການປະເມີນຄວາມສອດຄ່ອງແລະເຄື່ອງຫມາຍ CE; (3) ຄວາມສ່ຽງທີ່ຈໍາກັດ - ສ່ວນໃຫຍ່ແມ່ນຫນ້າທີ່ໂປ່ງໃສ (ເຊັ່ນ: chatbots, deepfakes); ແລະ (4) ຄວາມສ່ຽງໜ້ອຍທີ່ສຸດ—ບໍ່ມີກົດລະບຽບທີ່ຍາກ ແຕ່ລະຫັດສະໝັກໃຈໄດ້ຮັບການຊຸກຍູ້. ວຽກທຳອິດຂອງເຈົ້າແມ່ນການສ້າງແຜນທີ່ແຕ່ລະແບບໃສ່ໜຶ່ງໃນຊັ້ນເຫຼົ່ານີ້.

ກົດຫມາຍວ່າດ້ວຍການທົດແທນຍຸດທະສາດ AI ແຫ່ງຊາດບໍ?
ບໍ່. ປະເທດສະມາຊິກອາດຈະຮັກສາ ຫຼືສ້າງຍຸດທະສາດແຫ່ງຊາດ, ກ່ອງຊາຍ, ແລະແຜນການສະໜອງທຶນ. ກົດຫມາຍວ່າດ້ວຍພຽງແຕ່ປະສົມກົມກຽວ ກົດລະບຽບ ຂໍ້ກໍານົດເພື່ອໃຫ້ວິສາຫະກິດປະເຊີນກັບກົດລະບຽບຫນຶ່ງໃນທົ່ວ EU. ຂໍ້ລິເລີ່ມທ້ອງຖິ່ນຕ້ອງບໍ່ຂັດກັບກອບຄວາມສ່ຽງຂອງລະບຽບການ ຫຼືທໍາລາຍກົນໄກການບັງຄັບໃຊ້ຂອງຕົນ.

ການເລີ່ມຕົ້ນມີການຍົກເວັ້ນບໍ?
ບໍ່ແມ່ນແທ້ໆ. ກົດລະບຽບຈະນໍາໃຊ້ໂດຍບໍ່ຄໍານຶງເຖິງຂະຫນາດຂອງບໍລິສັດເນື່ອງຈາກວ່າຄວາມສ່ຽງ, ບໍ່ແມ່ນລາຍຮັບ, ຂັບລົດພັນທະ. ທີ່ເວົ້າວ່າ, ກ່ອງຊາຍ, ເອກະສານທີ່ອ່ອນກວ່າສໍາລັບບາງຮູບແບບ GPAI, ແລະຄໍາແນະນໍາທີ່ໄດ້ຮັບທຶນຈາກຄະນະກໍາມະການມີຈຸດປະສົງເພື່ອຫຼຸດຜ່ອນຄວາມຂັດແຍ້ງດ້ານການບໍລິຫານສໍາລັບ SMEs. ການລະເວັ້ນການປະຕິບັດຕາມເພາະວ່າເຈົ້າ "ນ້ອຍ" ແມ່ນຄວາມເຂົ້າໃຈຜິດທີ່ເປັນອັນຕະລາຍ.

ກົດໝາຍວ່າດ້ວຍ AI ປະຕິບັດຕໍ່ຕົວແບບ open-source ແນວໃດ?
ການປ່ອຍນ້ໍາຫນັກຕົວແບບຢ່າງເປີດເຜີຍບໍ່ໄດ້ຍົກເວັ້ນທ່ານ. ທ່ານຍັງຄົງຕ້ອງໃຫ້ບົດສະຫຼຸບຂໍ້ມູນການຝຶກອົບຮົມ, ເນື້ອຫາທີ່ສ້າງດ້ວຍລາຍນໍ້າ, ແລະເຜີຍແຜ່ຄໍາແນະນໍາການນໍາໃຊ້. ພັນທະແມ່ນອ່ອນກວ່າສໍາລັບຮູບແບບການຄ້າປິດ, ແຕ່ຖ້າລະບົບແຫຼ່ງເປີດຂອງທ່ານກາຍເປັນ "GPAI ທີ່ເປັນລະບົບ", ການທົດສອບເພີ່ມເຕີມແລະການລາຍງານຫນ້າທີ່ເລີ່ມຕົ້ນ.

ກົດໝາຍ​ເປັນ​ຄຳ​ສັ່ງ​ບໍ?
ບໍ່. ມັນເປັນກົດລະບຽບ—ໃຊ້ໄດ້ໂດຍກົງໃນທຸກໆລັດສະມາຊິກ ໂດຍບໍ່ມີການປ່ຽນປະເທດ. ຄິດວ່າມັນຄືກັບ GDPR: ເມື່ອມັນເຂົ້າສູ່ຜົນບັງຄັບໃຊ້, ພັນທະທາງດ້ານກົດຫມາຍແມ່ນມີຢູ່ທົ່ວ EU, ແລະພຽງແຕ່ຄໍາແນະນໍາການບັງຄັບໃຊ້ຕົວຈິງສາມາດແຕກຕ່າງກັນໃນທ້ອງຖິ່ນ.

ຈະເກີດຫຍັງຂຶ້ນຖ້າຜູ້ໃຫ້ບໍລິການຂອງຂ້ອຍຢູ່ນອກ EU?
ການເຂົ້າເຖິງອານາເຂດດັ່ງຕໍ່ໄປນີ້ output, ບໍ່ແມ່ນສໍານັກງານໃຫຍ່. ຖ້າລະບົບຂອງຜູ້ຂາຍຢູ່ຕ່າງປະເທດຖືກວາງຂາຍໃນ EU ຫຼືຜົນໄດ້ຮັບຂອງມັນຖືກນໍາໃຊ້ຢູ່ທີ່ນີ້, ຜູ້ໃຫ້ບໍລິການຕ້ອງຕອບສະຫນອງຂໍ້ກໍານົດຂອງ EU AI Act ແລະກໍານົດຕົວແທນທາງດ້ານກົດຫມາຍທີ່ອີງໃສ່ EU. ຜູ້ຈັດວາງພາຍໃນສະຫະພັນຍັງຄົງປະຕິບັດພັນທະຂອງຜູ້ໃຊ້, ສະນັ້ນເລືອກຜູ້ສະຫນອງຢ່າງລະມັດລະວັງ.

Key Takeaways

ຍັງ skimming? ນີ້ແມ່ນເອກະສານການຫຼອກລວງ:

  • ກົດໝາຍ​ວ່າ​ດ້ວຍ​ປັນຍາ​ທຽມ​ຂອງ​ສະຫະພາບ​ຢູ​ໂຣບ (AI) ​ແມ່ນ​ບໍ່​ແມ່ນ​ຮ່າງ​ກົດໝາຍ​ອີກ​ຕໍ່​ໄປ​ແລ້ວ ​ເລີ່​ມ​ແຕ່​ວັນ​ທີ 1 ສິງຫາ 2024 ​ເປັນຕົ້ນ​ໄປ ແລະນໍາເອົາກົດຫມາຍ AI ຕາມແນວນອນ, ຄວາມສ່ຽງທໍາອິດມາທຸກບ່ອນ.
  • ລະດັບຄວາມສ່ຽງເຮັດໃຫ້ທຸກສິ່ງທຸກຢ່າງ: ລະບົບທີ່ຍອມຮັບບໍ່ໄດ້ຖືກຫ້າມ, ລະບົບທີ່ມີຄວາມສ່ຽງສູງຕ້ອງການເຄື່ອງຫມາຍ CE ແລະການລົງທະບຽນ, ໃນຂະນະທີ່ມີຈໍາກັດ, ແລະເຄື່ອງມືທີ່ມີຄວາມສ່ຽງຫນ້ອຍທີ່ສຸດປະເຊີນກັບຫນ້າທີ່ເບົາກວ່າ - ແຕ່ບໍ່ແມ່ນສູນ.
  • ການບໍ່ປະຕິບັດຕາມແມ່ນລາຄາແພງ: ເຖິງ 35 ລ້ານ​ເອີ​ໂຣ ຫຼື 7% ຂອງ​ມູນ​ຄ່າ​ການ​ຄ້າ​ທົ່ວ​ໂລກ ສໍາລັບການປະຕິບັດທີ່ຖືກຫ້າມ, ບວກກັບຄວາມຮັບຜິດຊອບທາງແພ່ງທີ່ອາດຈະເກີດຂຶ້ນພາຍໃຕ້ຄໍາແນະນໍາຂອງ EU.
  • ພັນທະຢູ່ທົ່ວລະບົບຕ່ອງໂສ້ການສະຫນອງ: ຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້, ຜູ້ນໍາເຂົ້າ, ແລະຜູ້ຈັດຈໍາຫນ່າຍແຕ່ລະຄົນມີລາຍການກວດສອບສະເພາະ, ແລະຮູບແບບທົ່ວໄປໃນປັດຈຸບັນມີກົດລະບຽບທີ່ກໍານົດເອງ.
  • ກົດໝາຍດັ່ງກ່າວບໍ່ໄດ້ທົດແທນ GDPR, NIS2, ຫຼືກົດໝາຍວ່າດ້ວຍຄວາມປອດໄພຂອງຜະລິດຕະພັນ; ທ່ານ​ຕ້ອງ​ເຊື່ອມ​ຕໍ່​ຂອບ​ການ​ທັງ​ຫມົດ​ເຂົ້າ​ໄປ​ໃນ​ໂຄງ​ການ​ການ​ຄຸ້ມ​ຄອງ​ປະ​ສົມ​ປະ​ສານ​ດຽວ.

ຕ້ອງການຄວາມຊ່ວຍເຫຼືອໃນການປ່ຽນຂໍ້ຄວາມທາງກົດໝາຍໃຫ້ເປັນລະຫັດການເຮັດວຽກ, ນະໂຍບາຍ ແລະສັນຍາບໍ? ເທກໂນໂລຍີແລະທະນາຍຄວາມຄວາມເປັນສ່ວນຕົວທີ່ Law & More ສາມາດສະແກນຄວາມພ້ອມຂອງ AI Act ຢ່າງໄວວາ, ຮ່າງເອກະສານທີ່ຕ້ອງການ, ແລະນໍາພາທ່ານຜ່ານການປະເມີນຄວາມສອດຄ່ອງ - ກ່ອນທີ່ຜູ້ກວດສອບຈະມາເຄາະ.

Law & More