ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ—ກົດລະບຽບ (EU) 2024/1689—ກຳນົດກົດລະບຽບທີ່ຜູກມັດທາງກົດໝາຍສຳລັບລະບົບ AI ໃດໆກໍຕາມທີ່ວາງຢູ່ໃນຕະຫຼາດເອີຣົບ ຫຼື ຜົນຜະລິດທີ່ສົ່ງມາເຖິງຜູ້ໃຊ້ຂອງສະຫະພາບຢູໂຣບ, ເຮັດໃຫ້ມັນເປັນກົດໝາຍ AI ທຳອິດຕາມລວງນອນ, ອີງໃສ່ຄວາມສ່ຽງຢູ່ທຸກບ່ອນ. ບໍ່ວ່າທ່ານຈະສ້າງແບບຈໍາລອງ, ປະສົມປະສານເຄື່ອງມືຂອງພາກສ່ວນທີສາມ, ຫຼືພຽງແຕ່ນໍາໃຊ້ chatbots ເພື່ອໃຫ້ບໍລິການລູກຄ້າ, ກົດຫມາຍວ່າດ້ວຍສ້າງຫນ້າທີ່ໃຫມ່ແລະເຮັດໃຫ້ທ່ານຖືກປັບໃຫມຫຼາຍເຖິງ 7% ຂອງມູນຄ່າທົ່ວໂລກຕໍ່ການລະເມີດ. ມີຜົນບັງຄັບໃຊ້ໃນວັນທີ 1 ສິງຫາ 2024; ໄລຍະການປະຕິບັດຕາມພັນທະໃນໄລຍະເດືອນກຸມພາ 2025 ຫາເດືອນສິງຫາ 2027, ຊຶ່ງຫມາຍຄວາມວ່າເວລາການກະກຽມແມ່ນຈໍາກັດ.
ຄູ່ມືພາກປະຕິບັດນີ້ຕັດຜ່ານຄໍາສັບທາງດ້ານກົດຫມາຍແລະອະທິບາຍສິ່ງທີ່ທ່ານຈໍາເປັນຕ້ອງຮູ້: ຂອບເຂດຂອງກົດຫມາຍວ່າດ້ວຍແລະຄໍານິຍາມທີ່ສໍາຄັນ, ການຈັດປະເພດຄວາມສ່ຽງສີ່ຊັ້ນ, ກໍານົດເວລາແລະການບັງຄັບໃຊ້ກົນໄກການບັງຄັບໃຊ້, ພັນທະທີ່ແນ່ນອນສໍາລັບຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້, ຜູ້ນໍາເຂົ້າແລະຜູ້ຈັດຈໍາຫນ່າຍ, ແລະການລົງໂທດສໍາລັບການຫຼຸດລົງສັ້ນ. ພວກເຮົາຍັງສ້າງແຜນທີ່ກົດລະບຽບກັບ GDPR, NIS2, ກົດລະບຽບຄວາມປອດໄພຂອງຜະລິດຕະພັນ, ແລະຂໍ້ກໍານົດສະເພາະຂອງຂະແຫນງການ, ກ່ອນທີ່ຈະໃຫ້ທ່ານມີລາຍການກວດສອບການປະຕິບັດຕາມຂັ້ນຕອນໂດຍຂັ້ນຕອນທີ່ທີມງານວິສະວະກໍາ, ກົດຫມາຍ, ແລະຜູ້ນໍາສາມາດປະຕິບັດໄດ້ທັນທີ. ຂໍໃຫ້ເຈົ້າກຽມພ້ອມ - ກ່ອນທີ່ຜູ້ກວດສອບຈະມາເຄາະ.
ໃນເວລາເບິ່ງ: ສິ່ງທີ່ EU AI Act ຕົວຈິງແມ່ນ
ກົດລະບຽບ (EU) 2024/1689—ທີ່ຮູ້ຈັກກັນດີໃນນາມກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ—ເປັນລະບຽບການຂອງສະຫະພາບເອີຣົບທີ່ໃຊ້ໄດ້ໂດຍກົງ, ບໍ່ແມ່ນຄໍາສັ່ງ. ນັ້ນ ໝາຍ ຄວາມວ່າບົດຄວາມຂອງມັນກັດອັດຕະໂນມັດໃນທຸກໆລັດສະມາຊິກໂດຍບໍ່ຈໍາເປັນຕ້ອງມີການຫັນປ່ຽນແຫ່ງຊາດ, ຄືກັບ GDPR ໄດ້ເຮັດໃນປີ 2018. ເປົ້າໝາຍແມ່ນສອງເທົ່າຄື: ປົກປ້ອງສິດທິພື້ນຖານ ແລະຄວາມປອດໄພໃນຂະນະດຽວກັນໃຫ້ບໍລິສັດມີຄວາມແນ່ນອນທາງດ້ານກົດໝາຍໃນການປະດິດສ້າງດ້ວຍຄວາມຮັບຜິດຊອບດ້ວຍ AI. ເພື່ອເຮັດສິ່ງນີ້, ກົດຫມາຍແນະນໍາຊຸດເຄື່ອງມືທີ່ອີງໃສ່ຄວາມສ່ຽງຕາມແນວນອນ, ເຊິ່ງກວມເອົາທຸກຂະແຫນງການຈາກການເງິນໄປສູ່ການດູແລສຸຂະພາບ, ລະບົບການໃຫ້ຄະແນນຈາກ "ຫນ້ອຍ" ຫາ "ບໍ່ສາມາດຍອມຮັບໄດ້" ກັບຫນ້າທີ່ທາງກົດຫມາຍທີ່ກົງກັນ.
ຂອບເຂດແລະຄໍານິຍາມທີ່ເຈົ້າຕ້ອງການຮູ້
ກ່ອນທີ່ຈະວາງແຜນການປະຕິບັດຕາມ, ຮຽນຮູ້ຄໍາສັບຫຼັກ:
- ລະບົບ AI: "ລະບົບທີ່ອີງໃສ່ເຄື່ອງຈັກທີ່ຖືກອອກແບບມາເພື່ອປະຕິບັດກັບລະດັບການເປັນເອກະລາດທີ່ແຕກຕ່າງກັນແລະນັ້ນ, ສໍາລັບຈຸດປະສົງທີ່ຊັດເຈນຫຼື implicit, infers ຈາກຂໍ້ມູນການປ້ອນຂໍ້ມູນວິທີການສ້າງຜົນໄດ້ຮັບ - ເຊັ່ນ: ການຄາດຄະເນ, ເນື້ອໃນ, ຄໍາແນະນໍາຫຼືການຕັດສິນໃຈ - ທີ່ສາມາດມີອິດທິພົນຕໍ່ສະພາບແວດລ້ອມທາງດ້ານຮ່າງກາຍຫຼື virtual."
- AI ຈຸດປະສົງທົ່ວໄປ (GPAI): ລະບົບ AI ທີ່ສາມາດຮັບໃຊ້ວຽກງານທີ່ຫຼາກຫຼາຍທີ່ແຕກຕ່າງກັນ, ໂດຍບໍ່ຄໍານຶງເຖິງວິທີການທີ່ມັນຈະຖືກປັບຫຼືນໍາໄປໃຊ້.
- ຜູ້ໃຫ້ບໍລິການ: ບຸກຄົນທົ່ວໄປຫຼືທາງດ້ານກົດຫມາຍທີ່ພັດທະນາ - ຫຼືໄດ້ພັດທະນາ - ລະບົບ AI ທີ່ມີທັດສະນະທີ່ຈະວາງມັນຢູ່ໃນຕະຫຼາດຫຼືເອົາມັນເຂົ້າໄປໃນການບໍລິການພາຍໃຕ້ຊື່ຫຼືເຄື່ອງຫມາຍການຄ້າຂອງພວກເຂົາ.
- ຜູ້ໃຊ້ (ມັກເອີ້ນວ່າ "ຜູ້ນຳໃຊ້"): ບຸກຄົນ ຫຼື ນິຕິບຸກຄົນທີ່ໃຊ້ລະບົບ AI ພາຍໃຕ້ສິດອຳນາດຂອງຕົນ, ຍົກເວັ້ນການໃຊ້ສ່ວນຕົວ, ທີ່ບໍ່ແມ່ນອາຊີບ.
- ຜູ້ນໍາເຂົ້າ: ສະຫະພັນທີ່ຕັ້ງຢູ່ໃນຕະຫຼາດ EU ລະບົບ AI ທີ່ມີຊື່ຫຼືເຄື່ອງຫມາຍການຄ້າຂອງຫນ່ວຍງານທີ່ຢູ່ນອກສະຫະພາບ.
- ຜູ້ຈັດຈໍາຫນ່າຍ: ນັກສະແດງໃນລະບົບຕ່ອງໂສ້ການສະຫນອງ - ນອກເຫນືອຈາກຜູ້ໃຫ້ບໍລິການຫຼືຜູ້ນໍາເຂົ້າ - ຜູ້ທີ່ເຮັດໃຫ້ລະບົບ AI ສາມາດໃຊ້ໄດ້ໂດຍບໍ່ມີການດັດແປງມັນ.
ການເຂົ້າເຖິງອານາເຂດແມ່ນກວ້າງຂວາງ: ລະບົບໃດກໍ່ຕາມທີ່ວາງຢູ່ໃນຕະຫຼາດ EU ຫຼືຜົນຜະລິດທີ່ຖືກນໍາໃຊ້ໃນ EU ແມ່ນຢູ່ພາຍໃຕ້ກົດຫມາຍວ່າດ້ວຍ, ບໍ່ວ່າຜູ້ພັດທະນາຈະຢູ່ໃສ. ການແກະສະຫຼັກມີຢູ່ສໍາລັບຄໍາຮ້ອງສະຫມັກການທະຫານທີ່ບໍລິສຸດຫຼືຄວາມປອດໄພແຫ່ງຊາດ, R&D prototypes ຍັງບໍ່ທັນໄດ້ອອກຕະຫຼາດ, ແລະໂຄງການ hobby ສ່ວນບຸກຄົນ.
ຫຼັກການຫຼັກທີ່ຝັງຢູ່ໃນກົດໝາຍ
ລະບຽບດັ່ງກ່າວໄດ້ພັບແນວຄວາມຄິດດ້ານຈັນຍາບັນມາແຕ່ດົນນານມາເປັນກົດໝາຍທີ່ບັງຄັບໃຊ້ໄດ້:
- ໜ່ວຍງານມະນຸດສະທຳ ແລະ ກວດກາ
- ຄວາມທົນທານທາງດ້ານເຕັກນິກ ແລະຄວາມປອດໄພ
- ຄວາມເປັນສ່ວນຕົວ ແລະການຄຸ້ມຄອງຂໍ້ມູນ
- ຄວາມໂປ່ງໃສ ແລະການອະທິບາຍ
- ຄວາມຫຼາກຫຼາຍ, ບໍ່ຈຳແນກ ແລະ ຍຸຕິທຳ
- ສະຫວັດດີການສັງຄົມ ແລະ ສິ່ງແວດລ້ອມ
ສິ່ງເຫຼົ່ານີ້ສະທ້ອນເຖິງຫຼັກການ AI ຂອງ OECD ແລະ “ຂໍ້ແນະນຳດ້ານຈັນຍາບັນຂອງ EU” ກ່ອນໜ້ານີ້ AI ທີ່ເຊື່ອຖືໄດ້,” ແຕ່ໃນປັດຈຸບັນປະຕິບັດແຂ້ວກົດລະບຽບ.
ກົດລະບຽບທຽບກັບຂໍ້ແນະນຳກົດໝາຍອ່ອນທີ່ມີຢູ່
ຈົນກ່ວາ 2024, ການປົກຄອງ AI ໃນເອີຣົບແມ່ນອີງໃສ່ກອບການສະຫມັກໃຈເຊັ່ນ EU AI Pact ຫຼືລະຫັດຈັນຍາບັນຂອງບໍລິສັດ. ກົດໝາຍວ່າດ້ວຍ AI ປ່ຽນແປງເກມ: ການປະຕິບັດຕາມແມ່ນບັງຄັບ, ສາມາດກວດສອບໄດ້, ແລະສະໜັບສະໜູນໂດຍ ປັບໃໝເຖິງ 35 ລ້ານເອີໂຣ ຫຼື 7% ຂອງລາຍຮັບທົ່ວໂລກ. ໃນຄໍາສັບຕ່າງໆອື່ນໆ, ການປະກາດຂອງ "AI ດ້ານຈັນຍາບັນ" ແມ່ນບໍ່ພຽງພໍອີກຕໍ່ໄປ - ອົງການຈັດຕັ້ງຕ້ອງຜະລິດການປະເມີນຄວາມສອດຄ່ອງ, ເຄື່ອງຫມາຍ CE, ແລະບັນທຶກທີ່ຢັ້ງຢືນໄດ້ຫຼືຄວາມສ່ຽງທີ່ຈະຖືກຫ້າມຈາກຕະຫຼາດ EU.
ໄລຍະເວລາ, ສະຖານະທາງກົດໝາຍ ແລະໄລຍະການບັງຄັບໃຊ້
ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບຢູໂຣບ ໄດ້ເດີນທາງຈາກຂໍ້ສະເໜີໄປສູ່ກົດໝາຍທີ່ຜູກມັດພາຍໃນເວລາພຽງສາມປີເທົ່ານັ້ນ - ຄວາມໄວແສງໂດຍມາດຕະຖານຂອງບຣຸກແຊນ. ເນື່ອງຈາກວ່າມັນເປັນກົດລະບຽບ, ບົດຄວາມສ່ວນໃຫຍ່ຈະນໍາໃຊ້ໂດຍອັດຕະໂນມັດໃນທົ່ວ bloc ໂດຍບໍ່ມີການປ່ຽນປະເທດ. ສິ່ງທີ່ປ່ຽນໄປຕາມການເວລານັ້ນແມ່ນພັນທະທີ່ຕ້ອງກັດກ່ອນ. ຕາຕະລາງເວລາຂ້າງລຸ່ມນີ້ສະແດງໃຫ້ເຫັນຈຸດສໍາຄັນທາງດ້ານການເມືອງທີ່ເຮັດໃຫ້ພວກເຮົາຢູ່ທີ່ນີ້ແລະກໍານົດຂັ້ນຕອນສໍາລັບຫນ້າທີ່ປະຕິບັດຕາມຂັ້ນຕອນທີ່ອົງການຂອງເຈົ້າຕ້ອງຢູ່ໃນປະຕິທິນ.
| ວັນທີ່ສະຫມັກ | ເຫດການສໍາຄັນ | ຄວາມສໍາຄັນ |
|---|---|---|
| 21 Apr 2021 | ຄະນະກຳມະການເຜີຍແຜ່ຮ່າງກົດໝາຍວ່າດ້ວຍ AI | ການເລີ່ມຕົ້ນຢ່າງເປັນທາງການຂອງຂະບວນການນິຕິບັນຍັດ |
| 9 Dec 2023 | ສະພາແລະສະພາບັນລຸຂໍ້ຕົກລົງທາງການເມືອງ | ຂໍ້ຄວາມຫຼັກຖືກລັອກເປັນສ່ວນໃຫຍ່ |
| 13 ຄະ 2024 | ການລົງຄະແນນສຽງສຸດທ້າຍຂອງສະພາເອີຣົບ (523-46) | ໄດ້ຮັບການອະນຸມັດຈາກປະຊາທິປະໄຕ |
| 21 ພຶດສະພາ 2024 | ສະພາການຮັບຮອງ EU | ອຸປະສັກດ້ານນິຕິກຳສຸດທ້າຍຖືກລຶບລ້າງ |
| 10 ກະ 2024 | ຂໍ້ຄວາມທີ່ຕີພິມໃນວາລະສານທາງການ | ການນັບຖອຍຫຼັງທາງກົດໝາຍເລີ່ມຕົ້ນ |
| 1 Aug 2024 | ກົດລະບຽບ (EU) 2024/1689 ມີຜົນບັງຄັບໃຊ້ | “ວັນທີ 0” ສຳລັບກຳນົດເວລາໃນອະນາຄົດທັງໝົດ |
ວັນທີເຂົ້າເປັນຜົນບັງຄັບໃຊ້ເຮັດໃຫ້ເກີດຊຸດຂອງວັນທີການສະຫມັກທີ່ແຜ່ຂະຫຍາຍໃນໄລຍະສາມປີ. ການອອກແບບນີ້ເຮັດໃຫ້ຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້, ຜູ້ນໍາເຂົ້າ, ແລະຜູ້ຈັດຈໍາຫນ່າຍຫ້ອງຫາຍໃຈເພື່ອສ້າງຂະບວນການສອດຄ່ອງ, ຍົກລະດັບແບບຈໍາລອງ, ແລະການຝຶກອົບຮົມພະນັກງານ - ແຕ່ມັນຍັງຫມາຍຄວາມວ່າຜູ້ກວດສອບຄາດວ່າຈະມີຄວາມຄືບຫນ້າທີ່ດີກ່ອນປີ 2027.
ແຜນທີ່ການບັງຄັບໃຊ້: ສິ່ງທີ່ນໍາໃຊ້ໃນເວລາທີ່
- 6 ເດືອນ | ວັນທີ 1 ກຸມພາ 2025
- ການປະຕິບັດ AI ທີ່ຖືກຫ້າມ (ສິນລະປະ. 5) ຈະຕ້ອງຢູ່ນອກຕະຫຼາດ - ບໍ່ມີຂໍ້ແກ້ຕົວ.
- 12 ເດືອນ | ວັນທີ 1 ສິງຫາ 2025
- ຫນ້າທີ່ຄວາມໂປ່ງໃສສໍາລັບການປອມແປງເລິກ, chatbots, ແລະການຮັບຮູ້ຄວາມຮູ້ສຶກເລີ່ມຕົ້ນ.
- ລະຫັດການປະຕິບັດສໍາລັບ AI ຈຸດປະສົງທົ່ວໄປ (GPAI) ຄາດວ່າຈະ; ສະຫມັກໃຈແຕ່ແນະນໍາໃຫ້ສູງ.
- 24 ເດືອນ | ວັນທີ 1 ສິງຫາ 2026
- ຄວາມຕ້ອງການລະບົບຄວາມສ່ຽງສູງເລີ່ມຕົ້ນ: ການຄຸ້ມຄອງຄວາມສ່ຽງ, ການຄຸ້ມຄອງຂໍ້ມູນ, ເອກະສານດ້ານວິຊາການ, ການຄວບຄຸມຂອງມະນຸດ, ແລະການກະກຽມເຄື່ອງຫມາຍ CE.
- ຜູ້ໃຫ້ບໍລິການຕ້ອງລົງທະບຽນລະບົບທີ່ມີຄວາມສ່ຽງສູງໃນຖານຂໍ້ມູນໃຫມ່ຂອງ EU.
- 36 ເດືອນ | ວັນທີ 1 ສິງຫາ 2027
- ລະບອບເຕັມທີ່ນຳໃຊ້, ລວມທັງລະບົບການລະບຸຕົວຕົນທາງຊີວະມິຕິ, ການປະເມີນຄວາມສອດຄ່ອງຂອງຮ່າງກາຍທີ່ໄດ້ຮັບການແຈ້ງເຕືອນ, ແລະການປະກາດບັງຄັບຂອງສະຫະພາບເອີຣົບກ່ຽວກັບຄວາມສອດຄ່ອງສໍາລັບ AI ທີ່ມີຄວາມສ່ຽງສູງທັງໝົດ.
- ເຈົ້າຫນ້າທີ່ເຝົ້າລະວັງຕະຫຼາດ ໄດ້ຮັບອໍານາດທີ່ຈະສັ່ງການເອີ້ນຄືນຫຼືການຖອນຄືນສໍາລັບຜະລິດຕະພັນທີ່ບໍ່ປະຕິບັດຕາມ.
ຂໍ້ກໍານົດໄລຍະຂ້າມຜ່ານອະນຸຍາດໃຫ້ລະບົບທີ່ມີຄວາມສ່ຽງສູງຖືກນໍາໃຊ້ຢ່າງຖືກກົດຫມາຍກ່ອນເດືອນສິງຫາ 2026 ຢູ່ໃນຕະຫຼາດຈົນກ່ວາພວກເຂົາໄດ້ຮັບ "ການດັດແປງຢ່າງຫຼວງຫຼາຍ." ວາງແຜນການອັບເກຣດຢ່າງລະມັດລະວັງເພື່ອຫຼີກເວັ້ນການຕັ້ງໂມງການປະຕິບັດຕາມແບບບັງເອີນ.
ສະຖາບັນ ແລະອົງການກວດກາ
ການກວດກາສາມຊັ້ນບັງຄັບໃຊ້ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ:
- ຫ້ອງການ AI ຂອງ EU (ຄະນະກໍາມາທິການເອີຣົບ) - ປະສານງານການຊີ້ນໍາ, ຮັກສາການລົງທະບຽນ GPAI, ແລະສາມາດປັບຄ່າປັບໃຫມຜູ້ໃຫ້ບໍລິການແບບຈໍາລອງລະບົບ.
- ອຳນາດການປົກຄອງແຫ່ງຊາດ – ຫນຶ່ງໃນປະເທດສະມາຊິກ; ຈັດການການກວດກາ, ການຮ້ອງທຸກ, ແລະການເຝົ້າລະວັງຕະຫຼາດປະຈໍາວັນ.
- ອົງການຈັດຕັ້ງທີ່ຖືກແຈ້ງໃຫ້ຊາບ - ອົງການຈັດຕັ້ງການປະເມີນຄວາມສອດຄ່ອງແບບເອກະລາດທີ່ກວດສອບລະບົບທີ່ມີຄວາມສ່ຽງສູງກ່ອນທີ່ຈະມີເຄື່ອງຫມາຍ CE.
ນັກສະແດງເຫຼົ່ານີ້ຮ່ວມມືໂດຍຜ່ານ ຄະນະປັນຍາປະດິດເອີຣົບ (EAIB), ເຊິ່ງອອກບັນທຶກການຕີຄວາມສອດຄ່ອງ - ຄິດວ່າມັນເປັນ AI ທຽບເທົ່າຂອງ GDPR ຂອງ EDPB. ຢູ່ຕື່ນຕົວກັບການຊີ້ນໍາຂອງເຂົາເຈົ້າ; ມັນຈະເປັນຮູບຮ່າງວິທີການໄຟລ໌ດ້ານວິຊາການແລະການປະເມີນຄວາມສ່ຽງຂອງທ່ານຖືກຕັດສິນໃນການປະຕິບັດ.
ກອບການຈໍາແນກຄວາມສ່ຽງສີ່ຊັ້ນ
ຈຸດໃຈກາງຂອງກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍວ່າດ້ວຍ AI) ວາງຕົວແບບໄຟຈະລາຈອນທີ່ກຳນົດວ່າກົດລະບຽບທີ່ເຄັ່ງຄັດຄືແນວໃດ: ຄວາມສ່ຽງຕໍ່ສິດທິ ແລະຄວາມປອດໄພຂອງປະຊາຊົນສູງເທົ່າໃດ, ການປະຕິບັດຕາມກົດໝາຍຈະໜັກຂຶ້ນ. ທຸກໆລະບົບ AI ຈະຕ້ອງຖືກສ້າງແຜນທີ່ເປັນໜຶ່ງໃນສີ່ຊັ້ນຮຽນ—ບໍ່ສາມາດຍອມຮັບໄດ້, ສູງ, ຈຳກັດ ຫຼືໜ້ອຍທີ່ສຸດ. ການຈັດປະເພດເຮັດໃຫ້ທຸກສິ່ງອື່ນໆ: ຄວາມເລິກຂອງເອກະສານ, ການທົດສອບຄວາມເຂັ້ມງວດ, ການຄວບຄຸມ, ແລະ, ໃນທີ່ສຸດ, ການເຂົ້າເຖິງຕະຫຼາດ.
| ລະດັບຄວາມສ່ຽງ | ຕົວຢ່າງທົ່ວໄປ | ຜົນສະທ້ອນທາງກົດໝາຍຫຼັກ | ວັນທີສະໝັກທຳອິດ* |
|---|---|---|---|
| ຍອມຮັບບໍ່ໄດ້ | ການໃຫ້ຄະແນນສັງຄົມ, ID biometric ໃນເວລາຈິງໃນສະຖານທີ່ສາທາລະນະ, ເຄື່ອງຈັກ "nudge" manipulative | ຫ້າມທັງໝົດ; ຖອນ ແລະປັບໃໝສູງສຸດ €35 m / 7 % | 1 ກະ 2025 |
| ສູງ | ເຄື່ອງມືກວດສອບ CV, ຊອບແວການວິນິດໄສທາງການແພດ, ການໃຫ້ຄະແນນຄຸນຄ່າສິນເຊື່ອ, ໂມດູນການຂັບລົດເປັນເອກະລາດ | ການປະເມີນຄວາມສອດຄ່ອງ, ເຄື່ອງຫມາຍ CE, ການລົງທະບຽນ, ການຕິດຕາມຕະຫຼາດ | 1 ສິງຫາ 2026 (ຊີວະມິຕິ: 1 ສິງຫາ 2027) |
| ຈໍາກັດ | Chatbots, deepfake generator, widget ການວິເຄາະຄວາມຮູ້ສຶກ | ແຈ້ງການຄວາມໂປ່ງໃສ ແລະການຄວບຄຸມຜູ້ໃຊ້ຂັ້ນພື້ນຖານ | 1 Aug 2025 |
| ຫນ້ອຍ | ການກັ່ນຕອງຂີ້ເຫຍື້ອທີ່ຂັບເຄື່ອນດ້ວຍ AI, NPCs ວິດີໂອເກມ | ບໍ່ມີກົດລະບຽບບັງຄັບ; ລະຫັດສະໝັກໃຈເທົ່ານັ້ນ | ມີຜົນບັງຄັບໃຊ້ແລ້ວ |
* ຄິດໄລ່ຕັ້ງແຕ່ວັນທີ 1 ສິງຫາ 2024 ເປັນຕົ້ນໄປ.
ກອບເປັນແບບເຄື່ອນໄຫວ: ຖ້າທ່ານເພີ່ມຄຸນສົມບັດໃຫມ່ຫຼືປ່ຽນຜູ້ໃຊ້ເປົ້າຫມາຍ, ລະບົບຂອງທ່ານອາດຈະກ້າວໄປສູ່ລະດັບ, ເຮັດໃຫ້ເກີດຫນ້າທີ່ໃຫມ່.
ຄວາມສ່ຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້: ຫ້າມການປະຕິບັດ AI
ມາດຕາ 5 ແຕ້ມເສັ້ນສີແດງພາຍໃຕ້ການນໍາໃຊ້ EU ພິຈາລະນາໂດຍທົ່ວໄປບໍ່ສອດຄ່ອງກັບສິດພື້ນຖານ. ເຫຼົ່ານີ້ລວມມີ:
- ເຕັກນິກ subliminal ທີ່ບິດເບືອນພຶດຕິກໍາທາງດ້ານວັດຖຸ
- ການຂູດຮີດຄວາມອ່ອນແອຂອງເດັກນ້ອຍ ຫຼືຄົນພິການ
- ບໍ່ຈຳແນກເວລາຈິງ ການກໍານົດທາງຊີວະພາບ ໃນສະຖານທີ່ສາທາລະນະທີ່ສາມາດເຂົ້າເຖິງໄດ້ (ການບັງຄັບໃຊ້ກົດໝາຍທີ່ແຄບແມ່ນນຳໃຊ້)
- ການໃຫ້ຄະແນນສັງຄົມໂດຍອໍານາດການປົກຄອງສາທາລະນະ
- ຕຳ ຫຼວດການຄາດເດົາໂດຍອີງໃສ່ຂໍ້ມູນໂປຣໄຟລ໌ຫຼືສະຖານທີ່ເທົ່ານັ້ນ
ລະບົບດັ່ງກ່າວຕ້ອງບໍ່ເຄີຍຕີຕະຫຼາດ EU. ອຳນາດການປົກຄອງແຫ່ງຊາດສາມາດສັ່ງໃຫ້ຮຽກຄືນໃນທັນທີ, ແລະການລົງໂທດຕໍ່ຂັ້ນໄດທີ່ດີຂອງກົດໝາຍ.
ລະບົບ AI ຄວາມສ່ຽງສູງ: ໝວດໝູ່ III
ລະບົບຈະຕົກຢູ່ໃນຖັງທີ່ມີຄວາມສ່ຽງສູງຖ້າມັນແມ່ນ:
- ອົງປະກອບຄວາມປອດໄພຂອງຜະລິດຕະພັນທີ່ຄວບຄຸມແລ້ວ (ຕົວຢ່າງ, ພາຍໃຕ້ກົດລະບຽບຂອງເຄື່ອງຈັກ ຫຼືອຸປະກອນການແພດ), ຫຼື
- ລະບຸໄວ້ໃນເອກະສານຊ້ອນ III ຂອງແປດໂດເມນທີ່ລະອຽດອ່ອນ - ຊີວະມິຕິ, ໂຄງສ້າງພື້ນຖານທີ່ສໍາຄັນ, ການສຶກສາ, ການຈ້າງງານ, ການບໍລິການທີ່ຈໍາເປັນ, ການບັງຄັບໃຊ້ກົດຫມາຍ, ການເຄື່ອນຍ້າຍ, ແລະຄວາມຍຸດຕິທໍາ.
ເມື່ອຖືກຈັດປະເພດຄວາມສ່ຽງສູງ, ຜູ້ໃຫ້ບໍລິການຕ້ອງປະຕິບັດລະບົບການຄຸ້ມຄອງຄຸນນະພາບ, ປະຕິບັດຮອບວຽນການຄຸ້ມຄອງຄວາມສ່ຽງ, ແລະຮັບປະກັນການປະເມີນຄວາມສອດຄ່ອງ - ບາງຄັ້ງຜ່ານອົງການທີ່ໄດ້ຮັບການແຈ້ງເຕືອນຈາກພາຍນອກ. ຜູ້ໃຊ້ (ຜູ້ຈັດຕັ້ງ) ຮັບມໍລະດົກການຕັດໄມ້, ການຄວບຄຸມ, ແລະໜ້າທີ່ການລາຍງານເຫດ.
ຄວາມສ່ຽງຈໍາກັດ: ພັນທະຄວາມໂປ່ງໃສ
ເຄື່ອງມືທີ່ມີຄວາມສ່ຽງຈໍາກັດແມ່ນບໍ່ເປັນອັນຕະລາຍ, ແຕ່ EU ເຊື່ອວ່າຄວາມຮັບຮູ້ຂອງຜູ້ໃຊ້ຫຼຸດຜ່ອນອັນຕະລາຍທີ່ສຸດ. ຜູ້ຜະລິດ chatbots, ເຄື່ອງຈັກສິລະປະ AI generative, ຫຼືການບໍລິການສຽງສັງເຄາະຕ້ອງ:
- ແຈ້ງໃຫ້ຜູ້ຊົມໃຊ້ທີ່ເຂົາເຈົ້າມີການພົວພັນກັບ AI ("ຮູບພາບນີ້ແມ່ນ AI ສ້າງ")
- ເປີດເຜີຍເນື້ອຫາປອມໃນເຄື່ອງໝາຍນ້ຳທີ່ສາມາດອ່ານໄດ້
- ຫຼີກລ່ຽງການເກັບກຳຂໍ້ມູນສ່ວນຕົວແບບລັບໆເກີນກວ່າສິ່ງທີ່ຈຳເປັນຢ່າງເຂັ້ມງວດ
ການບໍ່ສະໜອງແຈ້ງການດັ່ງກ່າວຈະຫຼຸດລະດັບລະບົບຊື່ໄປຫາເຂດແດນທີ່ບໍ່ປະຕິບັດຕາມ ແລະ ເຊີນໃຫ້ມີການປັບໃໝທາງບໍລິຫານ.
ຄວາມສ່ຽງໜ້ອຍສຸດ/ມີໜ້ອຍ: ບໍ່ມີກົດລະບຽບບັງຄັບ
ການກັ່ນຕອງຂີ້ເຫຍື້ອ, ຂໍ້ຄວາມຄາດຄະເນໃນອີເມລ໌, ຫຼື AI ທີ່ເພີ່ມປະສິດທິພາບການໃຊ້ພະລັງງານ HVAC ໂດຍທົ່ວໄປແມ່ນຕົກຢູ່ນີ້. ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍວ່າດ້ວຍ AI) ບໍ່ໄດ້ວາງພັນທະອັນໜັກໜ່ວງ, ແຕ່ມັນຊຸກຍູ້ຢ່າງຈິງຈັງກັບລະຫັດສະໝັກໃຈ, ກ່ອງຊາຍດ້ານລະບຽບ ແລະ ການປະຕິບັດຕາມມາດຕະຖານສາກົນເຊັ່ນ ISO/IEC 42001. ການຮັກສາເອກະສານທີ່ເບົາບາງ ແລະ ການທົດສອບອະຄະຕິຂັ້ນພື້ນຖານຍັງຄົງເປັນການເຄື່ອນໄຫວທີ່ສະຫຼາດ - ຜູ້ຄວບຄຸມສາມາດຈັດປະເພດກໍລະນີເສັ້ນຊາຍແດນຄືນໃໝ່ໄດ້ ຖ້າມີຫຼັກຖານສະແດງຄວາມເສຍຫາຍ.
ພັນທະຫຼັກສໍາລັບຜູ້ໃຫ້ບໍລິການ, ຜູ້ຈັດວາງ, ແລະນັກສະແດງອື່ນໆ
ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງ EU ເຜີຍແຜ່ໜ້າທີ່ການປະຕິບັດຕາມໃນທົ່ວຕ່ອງໂສ້ການສະໜອງທັງໝົດ. ເນື່ອງຈາກວ່າຄວາມຮັບຜິດຊອບປະຕິບັດຕາມຫນ້າທີ່, ບໍ່ແມ່ນຂະຫນາດຂອງບໍລິສັດ, ກ່ອນອື່ນ ໝົດ ທ່ານຕ້ອງກໍານົດວ່າຫມວກໃດທີ່ເຈົ້າໃສ່ - ຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້ (ຜູ້ຈັດວາງ), ຜູ້ນໍາເຂົ້າ, ຫຼືຜູ້ຈັດຈໍາຫນ່າຍ - ແລະຫຼັງຈາກນັ້ນຈັດວາງຕາມຄວາມຕ້ອງການສະເພາະຄວາມສ່ຽງ. ການຂາດການຈັດປະເພດທີ່ຖືກຕ້ອງແມ່ນເປັນການຄົ້ນຫາການກວດສອບທົ່ວໄປ, ສະນັ້ນໃຫ້ປະຕິບັດການອອກກໍາລັງແຜນທີ່ເປັນຂັ້ນຕອນສູນຂອງໂຄງການຂອງທ່ານ.
ຜູ້ໃຫ້ບໍລິການລະບົບຄວາມສ່ຽງສູງ
ຜູ້ໃຫ້ບໍລິການແບກຫາບພາລະທີ່ຫນັກຫນ່ວງທີ່ສຸດເພາະວ່າພວກເຂົາຄວບຄຸມການຕັດສິນໃຈອອກແບບ. ໜ້າວຽກຫຼັກ:
- ສ້າງຕັ້ງລະບົບການຄຸ້ມຄອງຄຸນນະພາບທີ່ເປັນເອກະສານ (QMS) ທີ່ກວມເອົາການຄຸ້ມຄອງຂໍ້ມູນ, ການຄຸ້ມຄອງຄວາມສ່ຽງ, ການຄວບຄຸມການປ່ຽນແປງ, ແລະຄວາມປອດໄພທາງອິນເຕີເນັດ.
- ດໍາເນີນການປະເມີນຄວາມສອດຄ່ອງຂອງອະດີດ. ລະບົບ Annex III ສ່ວນໃຫຍ່ສາມາດປະເມີນຕົນເອງໄດ້, ແຕ່ biometric ID, ອຸປະກອນການແພດ, ແລະກໍລະນີການນໍາໃຊ້ທີ່ສໍາຄັນດ້ານຄວາມປອດໄພອື່ນໆຮຽກຮ້ອງໃຫ້ມີການແຈ້ງໃຫ້ຊາບ.
- ລວບລວມເອກະສານດ້ານວິຊາການ: ສະຖາປັດຕະຍະກໍາແບບຈໍາລອງ, ສາຍຂໍ້ມູນການຝຶກອົບຮົມ, ຕົວຊີ້ວັດການປະເມີນຜົນ, ການທົດສອບຄວາມຫມັ້ນຄົງ, ກົນໄກການກວດກາຂອງມະນຸດ, ແລະແຜນການຕິດຕາມຕະຫຼາດ.
- ຮ່າງຖະແຫຼງການຂອງສະຫະພາບເອີຣົບກ່ຽວກັບການສອດຄ່ອງກັບເຄື່ອງຫມາຍ CE, ແລະລົງທະບຽນລະບົບໃນຖານຂໍ້ມູນ AI ສາທາລະນະກ່ອນການນໍາໃຊ້ຄັ້ງທໍາອິດ.
- ສ້າງການເຝົ້າລະວັງຫຼັງຕະຫຼາດຢ່າງຕໍ່ເນື່ອງ: ບັນທຶກເຫດການຮ້າຍແຮງ, retrain ໃນເວລາທີ່ອຸປະກອນການຂ້າມຜ່ານ, ແລະແຈ້ງໃຫ້ອົງການທີ່ມີຄວາມສາມາດພາຍໃນ 15 ວັນ.
ການລະເລີຍຂັ້ນຕອນເຫຼົ່ານີ້ສາມາດເຮັດໃຫ້ເກີດການປັບໃໝເຖິງ 15 ລ້ານເອີໂຣ ຫຼື 3% ຂອງມູນຄ່າການຄ້າຂາຍທົ່ວໂລກ, ເຖິງແມ່ນວ່າຈະບໍ່ມີອັນຕະລາຍໃດໆເກີດຂຶ້ນ.
ຜູ້ໃຊ້ / ຜູ້ໃຊ້ລະບົບທີ່ມີຄວາມສ່ຽງສູງ
Deployers ແປງລະຫັດເຂົ້າໄປໃນຜົນກະທົບຂອງໂລກທີ່ແທ້ຈິງ, ດັ່ງນັ້ນກົດຫມາຍວ່າດ້ວຍການໃຫ້ພວກເຂົາມີບັນຊີລາຍການກວດກາຂອງຕົນເອງ:
- ປະຕິບັດລະບົບຢ່າງເຂັ້ມງວດຕາມຄໍາແນະນໍາຂອງຜູ້ໃຫ້ບໍລິການແລະກໍລະນີການນໍາໃຊ້ເອກະສານ.
- ດໍາເນີນການປະເມີນຜົນກະທົບດ້ານສິດທິພື້ນຖານ (FRIA) ເມື່ອຜູ້ໃຊ້ເປັນເຈົ້າຫນ້າທີ່ສາທາລະນະຫຼືໃນເວລາທີ່ AI ມີອິດທິພົນຕໍ່ການເຂົ້າເຖິງການບໍລິການທີ່ສໍາຄັນເຊັ່ນ: ເຮືອນຫຼືສິນເຊື່ອ.
- ຮັບປະກັນການກວດກາຂອງມະນຸດທີ່ມີຄຸນວຸດທິ: ພະນັກງານຕ້ອງໄດ້ຮັບການຝຶກອົບຮົມ, ມີອໍານາດທີ່ຈະ override ຜົນໄດ້ຮັບ, ແລະສາມາດອະທິບາຍການຕັດສິນໃຈກັບບຸກຄົນທີ່ໄດ້ຮັບຜົນກະທົບ.
- ຮັກສາບັນທຶກຢ່າງຫນ້ອຍຫົກປີ, ລວມທັງຂໍ້ມູນການປ້ອນຂໍ້ມູນ, ຜົນຜະລິດ, ການແຊກແຊງຂອງມະນຸດ, ແລະຄວາມຜິດປົກກະຕິຂອງການປະຕິບັດ.
- ລາຍງານເຫດການຮ້າຍແຮງຕໍ່ທັງຜູ້ໃຫ້ບໍລິການ ແລະອຳນາດແຫ່ງຊາດ ໂດຍບໍ່ມີການ “ຊັກຊ້າເກີນໄປ,” ໂດຍປົກກະຕິແລ້ວ ແປເປັນ 72 ຊົ່ວໂມງ.
ຜູ້ນໍາເຂົ້າ ແລະຈໍາໜ່າຍ
ນັກສະແດງທີ່ແນະນໍາຫຼືຜ່ານລະບົບ AI ໃນ EU ມີຫນ້າທີ່ຮັກສາປະຕູ:
- ກວດສອບວ່າເຄື່ອງໝາຍ CE, ການປະກາດຄວາມສອດຄ່ອງຂອງ EU, ແລະຄຳແນະນຳມີຢູ່ ແລະກົງກັບການເຮັດວຽກທີ່ມີຢູ່ໃນຕະຫຼາດ.
- ປະຕິເສດການສະຫນອງຜະລິດຕະພັນຖ້າພວກເຂົາຮູ້ - ຫຼືຄວນຮູ້ - ວ່າມັນບໍ່ປະຕິບັດຕາມ; ແທນທີ່ຈະ, ແຈ້ງໃຫ້ຜູ້ໃຫ້ບໍລິການ ແລະເຈົ້າໜ້າທີ່ມີອຳນາດ.
- ຮັກສາທະບຽນການຮ້ອງຮຽນ ແລະ ການເອີ້ນຄືນ, ເຮັດໃຫ້ມັນມີໃຫ້ເຈົ້າໜ້າທີຕາມການຮ້ອງຂໍ.
- ຮ່ວມມືໃນການແກ້ໄຂ, ລວມທັງການຖອນຜະລິດຕະພັນຫຼືການແກ້ໄຂຊອບແວ.
ຈຸດປະສົງທົ່ວໄປ AI (ຕົວແບບພື້ນຖານ) ພັນທະ
ກົດຫມາຍວ່າດ້ວຍເພີ່ມກົດລະບຽບ bespoke ສໍາລັບຜູ້ສ້າງ GPAI ຫຼືຕົວແບບພື້ນຖານທີ່ສາມາດຖືກຝັງຢູ່ທຸກບ່ອນ:
- ສະຫນອງເອກະສານດ້ານວິຊາການທີ່ສົມບູນແບບແລະສະຫຼຸບຊຸດຂໍ້ມູນທີ່ໃຊ້, ລວມທັງສະຖານະພາບໃບອະນຸຍາດແລະແຫຼ່ງທີ່ຕັ້ງພູມສາດ.
- ເຜີຍແຜ່ຖະແຫຼງການຂອງ ການປະຕິບັດຕາມລິຂະສິດ ແລະ, ຖ້າເປັນໄປໄດ້, ປະຕິບັດກົນໄກການຖອນຕົວສໍາລັບວຽກງານປ້ອງກັນ.
- ປະຕິບັດແລະເອກະສານການທົດສອບຄວາມສ່ຽງຕໍ່ລະບົບຖ້າຕົວແບບເກີນຂອບເຂດຂອງຄອມພິວເຕີ້ໃນເອກະສານຊ້ອນທ້າຍ XI (ຄິດວ່າ 10^25 FLOPs). ຫນ້າທີ່ພິເສດໄດ້ຮັບການເຂົ້າໃນ "GPAI ລະບົບ" ເຊັ່ນ: ການສະເຫນີການປະຕິບັດກະສານອ້າງອີງແລະການຮ່ວມມືກັບຫ້ອງການ AI ຂອງ EU.
- ໂມເດວໂອເພນຊອດມີພັນທະການສຳຜັດທີ່ເບົາບາງລົງ, ແຕ່ຕ້ອງຍັງຄົງມີເນື້ອຫາທີ່ສ້າງລາຍນ້ຳ ແລະ ສະໜອງຄຳແນະນຳການນຳໃຊ້ທີ່ລະອຽດເຖິງຂໍ້ຈຳກັດທີ່ເຫັນໄດ້ຊັດເຈນ.
ໂດຍການຈັດວາງການຄວບຄຸມພາຍໃນຂອງທ່ານກັບລາຍການກວດກາສະເພາະບົດບາດຂ້າງເທິງ, ທ່ານສາມາດປິດຊ່ອງຫວ່າງການປະຕິບັດຕາມທີ່ຊັດເຈນທີ່ສຸດເປັນເວລາດົນນານກ່ອນກໍານົດເວລາການບັງຄັບໃຊ້ໃນເດືອນສິງຫາ 2026 ແລະ 2027.
ຄວາມຕ້ອງການດ້ານວິຊາການແລະອົງການຈັດຕັ້ງເພື່ອບັນລຸການປະຕິບັດຕາມ
ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ ບໍ່ໄດ້ກຳນົດໃຫ້ມີການພິມແບບຂະໜາດດຽວ. ແທນທີ່ຈະ, ມັນກໍານົດຜົນໄດ້ຮັບທີ່ເນັ້ນໃສ່ "ຄວາມຕ້ອງການທີ່ຈໍາເປັນ" ແລະເຮັດໃຫ້ທ່ານມີອິດສະຫຼະທີ່ຈະເລືອກເອົາການຄວບຄຸມທີ່ພິສູດໃຫ້ເຂົາເຈົ້າ. ເຄັດລັບແມ່ນການຜະສົມຜະສານການປະຕິບັດດ້ານວິສະວະກໍາທີ່ດີກັບສຸຂະອະນາໄມດ້ານລະບຽບ, ເພື່ອໃຫ້ທຸກການປັບປຸງແບບຈໍາລອງຫຼືການໂຫຼດຫນ້າຈໍຄືນຂໍ້ມູນອັດຕະໂນມັດຫຼຸດລົງເຂົ້າໄປໃນທໍ່ການປະຕິບັດຕາມແບບຊ້ໍາຊ້ອນ. ຫ້າຕຶກອາຄານລຸ່ມນີ້ແປບົດຄວາມທາງກົດໝາຍຂອງກົດໝາຍໃຫ້ເປັນວຽກທີ່ຊັດເຈນທີ່ຜະລິດຕະພັນ, ຂໍ້ມູນ, ແລະທີມງານກົດໝາຍຂອງທ່ານສາມາດເປັນເຈົ້າຂອງໄດ້.
ການຄຸ້ມຄອງຂໍ້ມູນ ແລະການຄຸ້ມຄອງ
ຂໍ້ມູນທີ່ບໍ່ດີເທົ່າກັບ kryptonite ລະບຽບການ. ມາດຕາ 10 ບັງຄັບໃຫ້ຜູ້ໃຫ້ບໍລິການຂອງ AI ມີຄວາມສ່ຽງສູງທີ່ຈະເອກະສານແລະໃຫ້ເຫດຜົນທຸກ byte ທີ່ເຂົ້າໄປໃນທໍ່.
- ຈັດການຊຸດຂໍ້ມູນທີ່ມີ ທີ່ກ່ຽວຂ້ອງ, ຕົວແທນ, ບໍ່ມີຄວາມຜິດພາດ, ແລະເຖິງວັນທີ ສໍາລັບປະຊາກອນທີ່ມີຈຸດປະສົງ.
- ຮັກສາ "ເອກະສານຂໍ້ມູນ" ສໍາລັບແຕ່ລະ corpus: ແຫຼ່ງ, ວັນທີເກັບກໍາ, ເງື່ອນໄຂການອະນຸຍາດ, ຂັ້ນຕອນການປຸງແຕ່ງກ່ອນ, ການກວດສອບຄວາມລໍາອຽງ, ແລະໄລຍະເວລາເກັບຮັກສາ.
- ຕິດຕາມເຊື້ອສາຍຢູ່ໃນບ່ອນເກັບມ້ຽນທີ່ຄວບຄຸມໂດຍສະບັບເພື່ອໃຫ້ທ່ານສາມາດກັບຄືນໄດ້ຖ້າເຈົ້າຫນ້າທີ່ຕ້ອງການການແກ້ໄຂ.
- ປະຕິບັດການທົດສອບຄວາມລໍາອຽງແລະຄວາມບໍ່ສົມດຸນໂດຍໃຊ້ວິທີທາງສະຖິຕິ (
χ²,KS-test, ຫຼືຕົວຊີ້ວັດຄວາມຍຸຕິທໍາແບບບໍ່ເຊື່ອຟັງ) ແລະການປະຕິບັດການຫຼຸດຜ່ອນບັນທຶກ.
ຮັກສາເສັ້ນທາງອັນເຕັມທີ່—ຂໍ້ມູນດິບ, ສະຄຣິບ, ຜົນການທົດສອບ—ເຂົ້າເຖິງໄດ້ ປີ 10; ປ່ອງຢ້ຽມເບິ່ງຄືນຂອງກົດໝາຍແມ່ນຍາວ.
ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ
ມາດຕາ 9 ຕ້ອງການ ກ ຂະບວນການຢ່າງຕໍ່ເນື່ອງແລະເປັນເອກະສານ ທີ່ສະທ້ອນ ISO 31000 ແລະຮ່າງ ISO/IEC 23894.
- ກໍານົດອັນຕະລາຍ: ສະຖານະການນໍາໃຊ້ໃນທາງທີ່ຜິດ, ການໂຈມຕີຂອງສັດຕູ, ການລອຍຕົວຂອງຂໍ້ມູນ.
- ວິເຄາະຜົນກະທົບ ແລະ ຄວາມເປັນໄປໄດ້; ໃຫ້ຄະແນນເຂົາເຈົ້າໃນລະດັບທົ່ວໄປ (ເຊັ່ນ:
risk = probability × severity). - ການຄວບຄຸມການຕັດສິນໃຈ: ການປົກປ້ອງດ້ານວິຊາການ, ການຄວບຄຸມຂອງມະນຸດ, ຂໍ້ຈໍາກັດຂອງສັນຍາ.
- ກວດສອບການຄວບຄຸມຫຼັງຈາກແຕ່ລະການປັບປຸງທີ່ສໍາຄັນ; feed ການຄົ້ນພົບເຂົ້າໄປໃນ sprint ຕໍ່ໄປ.
ເກັບຮັກສາທຸກສິ່ງທຸກຢ່າງຢູ່ໃນທະບຽນຄວາມສ່ຽງຕໍ່ການດໍາລົງຊີວິດ; ຜູ້ຄວບຄຸມຄາດວ່າຈະເຫັນເວລາ, ເຈົ້າຂອງ, ແລະຫຼັກຖານການປິດ.
ການຄວບຄຸມຂອງມະນຸດແລະຄວາມໂປ່ງໃສໂດຍການອອກແບບ
ມາດຕາ 14 ແລະ 52 ປ່ຽນ “ມະນຸດໃນວົງການ” ເວົ້າເປັນວຽກອອກແບບບັງຄັບ.
- ກໍານົດຮູບແບບການກວດກາ: ໃນວົງ (ການອະນຸມັດຄູ່ມື), on-the-loop (ການແຈ້ງເຕືອນໃນເວລາຈິງ), ຫຼື over-the-loop (ການກວດສອບຫຼັງຈາກນັ້ນ).
- ຝັງຊັ້ນການອະທິບາຍ: ແຜນທີ່ຄວາມເຂັ້ມຂົ້ນ, ຕົວຢ່າງທີ່ກົງກັນຂ້າມ, ກົດລະບຽບການຕັດສິນໃຈທີ່ງ່າຍດາຍ.
- ໃຫ້ທາງເລືອກໃນການ override ແລະ fallback ທີ່ເປັນທັງສອງ ທາງດ້ານເຕັກນິກສາມາດເຮັດວຽກໄດ້ ແລະ ອະນຸຍາດໂດຍອົງການ.
- ສະເໜີແຈ້ງການຜູ້ໃຊ້ທີ່ເປັນພາສາທຳມະດາ (“ທ່ານກຳລັງພົວພັນກັບລະບົບ AI”) ແລະເປີດເຜີຍຄະແນນຄວາມໝັ້ນໃຈໃນບ່ອນທີ່ເປັນໄປໄດ້.
ຄວາມທົນທານ, ຄວາມຖືກຕ້ອງ, ແລະຄວາມປອດໄພທາງໄຊເບີ
ພາຍໃຕ້ມາດຕາ 15, ຕົວແບບຕ້ອງຢູ່ໃນອັດຕາຄວາມຜິດພາດທີ່ປະກາດໄວ້ ແລະຕ້ານການແຊກແຊງທີ່ເປັນອັນຕະລາຍ.
- ກໍານົດຂອບເຂດການປະຕິບັດຕໍາ່ສຸດທີ່; ຕິດຕາມກວດກາຄວາມຖືກຕ້ອງ, ຄວາມແມ່ນຍໍາ, recall, ແລະ calibration drift ໃນການຜະລິດ.
- ດໍາເນີນການທົດສອບຄວາມຢືດຢຸ່ນຂອງສັດຕູ (FGSM, PGD, ການເປັນພິດຂອງຂໍ້ມູນ) ກ່ອນທີ່ຈະອອກແຕ່ລະຄັ້ງ.
- ໂຄງສ້າງພື້ນຖານແຂງໃຫ້ສອດຄ່ອງກັບ NIS2 ແລະ ETSI EN 303 645: APIs ທີ່ປອດໄພ, ການເຂົ້າເຖິງທີ່ອີງໃສ່ບົດບາດ, ຈຸດກວດກາແບບເຂົ້າລະຫັດ.
- ກະກຽມແຜນການຫຼຸດລົງ—ຄ່າເລີ່ມຕົ້ນຂອງໂໝດປອດໄພ, ການເພີ່ມການກວດສອບຂອງມະນຸດ—ເມື່ອປະສິດທິພາບຫຼຸດລົງຕໍ່າກວ່າແຖບຄວາມທົນທານ.
ການບັນທຶກ, ການບັນທຶກ, ແລະເອກະສານ CE
ຖ້າມັນບໍ່ໄດ້ຖືກຂຽນລົງ, ມັນບໍ່ເຄີຍເກີດຂຶ້ນ - mantra ທີ່ກາຍເປັນກົດຫມາຍໃນມາດຕາ 11 ແລະ 19.
| ເອກະສານ | ເນື້ອໃນຫຼັກ | ການເກັບຮັກສາ |
|---|---|---|
| ເອກະສານດ້ານວິຊາການ | ສະຖາປັດຕະຍະກໍາແບບຈໍາລອງ, ສະຫຼຸບຂໍ້ມູນການຝຶກອົບຮົມ, ຕົວຊີ້ວັດການປະເມີນຜົນ, ການຄວບຄຸມຄວາມປອດໄພທາງອິນເຕີເນັດ | ວົງຈອນຊີວິດ + 10 ປີ |
| ຂໍ້ມູນບັນທຶກ | ວັດສະດຸປ້ອນ, ຜົນໄດ້ຮັບ, override ເຫດການ, ສະຖິຕິການປະຕິບັດ, ເຫດການ | ≥ 6 ປີ |
| ຖະແຫຼງການແຫ່ງຄວາມສອດຄ່ອງຂອງສະຫະພາບເອີຣົບ | ຄໍາຖະແຫຼງການສອດຄ່ອງ, ມາດຕະຖານທີ່ນໍາໃຊ້, ລາຍລະອຽດຂອງຜູ້ໃຫ້ບໍລິການ | ມີໃຫ້ສາທາລະນະ |
| ແຜນການຕິດຕາມຕະຫຼາດຫຼັງຕະຫຼາດ | KPIs, ຊ່ອງທາງການລາຍງານ, ເກນເລີ່ມຕົ້ນ | ປັບປຸງຢ່າງຕໍ່ເນື່ອງ |
ບັນທຶກການບັນທຶກອັດຕະໂນມັດໃນບ່ອນທີ່ເປັນໄປໄດ້; ໃຊ້ການເກັບຮັກສາທີ່ບໍ່ສາມາດປ່ຽນແປງໄດ້ ຫຼືບັນຊີລາຍການຕໍ່ທ້າຍເທົ່ານັ້ນ ເພື່ອໃຫ້ຫຼັກຖານຢູ່ລອດຈາກການກວດສອບທາງນິຕິສາດ. ເມື່ອ dossier ສໍາເລັດ, affix the CE marking ແລະສົ່ງລະບົບໄປຍັງຖານຂໍ້ມູນ EU - ພຽງແຕ່ຫຼັງຈາກນັ້ນມັນອາດຈະຕີຕະຫຼາດ.
ໂດຍການວາງສາຍການຄວບຄຸມທາງດ້ານວິຊາການ ແລະ ການຈັດຕັ້ງເຫຼົ່ານີ້ເຂົ້າໃນວົງຈອນຊີວິດການພັດທະນາຂອງທ່ານ, ທ່ານປ່ຽນການປະຕິບັດຕາມຈາກການຂູດຮີດໃນນາທີສຸດທ້າຍໄປສູ່ຄວາມສາມາດສະເໝີທີ່ຜູ້ກວດສອບຈະຮັບຮູ້—ແລະໃຫ້ລາງວັນ.
ການລົງໂທດ, ການແກ້ໄຂ, ແລະການເປີດເຜີຍການດໍາເນີນຄະດີ
ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບເອີລົບບໍ່ໄດ້ອີງໃສ່ການເວົ້າທີ່ສຸຂຸມ; ມັນໃຊ້ໄມ້ທ່ອນໃຫຍ່ພໍທີ່ຈະເຮັດໃຫ້ຜູ້ບໍລິຫານໄດ້ຮັບໄຊຊະນະ. ການລົງໂທດທາງດ້ານການເງິນສະທ້ອນເຖິງຂະຫນາດຂອງ GDPR, ແຕ່ກົດຫມາຍດັ່ງກ່າວຍັງໃຫ້ອໍານາດອໍານາດ ດຶງຜະລິດຕະພັນອອກຈາກຊັ້ນວາງ, ສັ່ງລຶບຂໍ້ມູນ, ຫຼືບັງຄັບໃຫ້ມີການຝຶກອົບຮົມແບບຈໍາລອງ ຖ້າຫາກວ່າຄວາມສ່ຽງຍັງບໍ່ໄດ້ຫຼຸດຜ່ອນ. ການປັບໃໝແມ່ນຖືກຈຳກັດໄວ້ໂດຍອັນໃດທີ່ສູງກວ່າ - ຈໍານວນເງິນເອີໂຣຢ່າງແທ້ຈິງ ຫຼືອັດຕາສ່ວນຂອງລາຍຮັບທົ່ວໂລກຂອງປີກ່ອນ - ດັ່ງນັ້ນເຖິງແມ່ນວ່າການເລີ່ມຕົ້ນໃນຂັ້ນຕອນຕົ້ນໆກໍ່ຫຼີກລ່ຽງຄວາມບໍ່ພໍໃຈ. ຕາຕະລາງຂ້າງລຸ່ມນີ້ສະຫຼຸບລະດັບການລົງໂທດ:
| ປະເພດການລະເມີດ | ສູງສຸດຄົງທີ່ປັບໄຫມ | ສູງສຸດ % ຂອງຍອດມູນຄ່າທົ່ວໂລກ | ຕົວກະຕຸ້ນປົກກະຕິ |
|---|---|---|---|
| ການປະຕິບັດທີ່ຫ້າມ (ສິນລະປະ. 5) | €35 m | 7% | ການໃຫ້ຄະແນນສັງຄົມ, ການເຝົ້າລະວັງ biometric ທີ່ຜິດກົດຫມາຍ |
| ພັນທະທີ່ມີຄວາມສ່ຽງສູງ (ສິນລະປະ. 8-15) | €15 m | 3% | ຂາດການປະເມີນຄວາມສອດຄ່ອງ, ການຄຸ້ມຄອງຂໍ້ມູນບົກພ່ອງ |
| ຂໍ້ມູນ & ການລົງທະບຽນລົ້ມເຫລວ | €7.5 m | 1% | ເອກະສານເຕັກນິກທີ່ບໍ່ຖືກຕ້ອງ, ການລາຍງານເຫດການຊັກຊ້າ |
| ແຈ້ງການບໍ່ປະຕິບັດຕາມປົກກະຕິ | € 500K | n / a | ການລະເມີດເລັກນ້ອຍຫຼັງຈາກການເຕືອນ |
ເຈົ້າຫນ້າທີ່ຄວບຄຸມສາມາດກໍານົດການຈ່າຍຄ່າປັບໄຫມປະຈໍາວັນເພື່ອເລັ່ງການແກ້ໄຂ. ຜະລິດຕະພັນທີ່ຍັງສ້າງ "ຄວາມສ່ຽງທີ່ຮ້າຍແຮງ" ປະເຊີນກັບການບັງຄັບ recall ຫຼືການຖອນຕະຫຼາດ— ການຕີຊື່ສຽງບໍ່ມີແຜນການ PR ສາມາດປິດບັງໄດ້.
ການລົງໂທດທາງບໍລິຫານທຽບກັບຄວາມຮັບຜິດຊອບທາງແພ່ງ
ການປັບໃໝຕາມລະບຽບບໍ່ແມ່ນຈຸດຈົບຂອງເລື່ອງ. ຄໍາສັ່ງກ່ຽວກັບຄວາມຮັບຜິດຊອບ AI (AILD) ທີ່ກໍາລັງຈະມາເຖິງແລະການປັບປຸງໃຫມ່ຄໍາສັ່ງຄວາມຮັບຜິດຊອບຜະລິດຕະພັນ (PLD) ເປີດເສັ້ນທາງຂະຫນານສໍາລັບ ການຮຽກຮ້ອງຄວາມເສຍຫາຍສ່ວນຕົວ. ຜູ້ຖືກເຄາະຮ້າຍທີ່ໄດ້ຮັບບາດເຈັບຈາກການຕັດສິນໃຈ AI ຈະມີຄວາມສຸກ:
- A ການຄາດຄະເນທີ່ສາມາດແກ້ໄຂຂອງເຫດຜົນ ເມື່ອຜູ້ໃຫ້ບໍລິການລະເມີດ AI ປະຕິບັດຫນ້າທີ່, ຫຼຸດຜ່ອນພາລະຂອງຫຼັກຖານ.
- ຂະຫຍາຍສິດທິການເປີດເຜີຍ, ປ່ອຍໃຫ້ໂຈດຮ້ອງຂໍບັນທຶກແລະການປະເມີນຄວາມສ່ຽງທີ່ປົກກະຕິຈະຢູ່ໃນເຮືອນ.
- ກົດລະບຽບທີ່ສອດຄ່ອງກັນໃນທົ່ວປະເທດສະມາຊິກ, ແຕ່ກົດໝາຍທໍລະຍົດແຫ່ງຊາດຍັງອາດຈະໃຫ້ມາດຕະຖານທີ່ເຂັ້ມງວດກວ່າ (ເຊັ່ນ: ຄຳສອນທີ່ບໍ່ຖືກຕ້ອງຂອງຊາວໂຮນລັງ).
ດັ່ງນັ້ນ, ບໍລິສັດສາມາດປະເຊີນກັບການລົງໂທດຫນຶ່ງຕໍ່ສອງ: ການປັບໃໝດ້ານບໍລິຫານຫຼາຍລ້ານເອີໂຣຕາມມາດ້ວຍການກະທໍາຂອງຊັ້ນພົນລະເຮືອນ, ໂດຍສະເພາະໃນຂົງເຂດເຊັ່ນການປະຕິເສດສິນເຊື່ອຫຼືການຈໍາແນກການຈ້າງ.
ແກ້ໄຂກົນໄກ ແລະການປົກປ້ອງຜູ້ແຈ້ງຂ່າວ
ບຸກຄົນ ແລະອົງການ NGO ອາດຈະຍື່ນຄໍາຮ້ອງທຸກໂດຍກົງກັບເຂົາເຈົ້າ ອຳນາດການປົກຄອງແຫ່ງຊາດ ຫຼືຫ້ອງການ AI ຂອງ EU. ເຈົ້າ ໜ້າ ທີ່ຕ້ອງສືບສວນພາຍໃນ "ໄລຍະເວລາທີ່ສົມເຫດສົມຜົນ" ແລະສາມາດໃຫ້ມາດຕະການຊົ່ວຄາວ, ລວມທັງຄໍາສັ່ງໂຈະ. ຜູ້ທີ່ໄດ້ຮັບຜົນກະທົບຍັງຄົງຈະໄດ້ຮັບການແກ້ໄຂທາງຕຸລາການ - ຄໍາສັ່ງ, ການຟ້ອງຮ້ອງການຊົດເຊີຍ, ແລະການຮ້ອງຟ້ອງຕໍ່ການຕັດສິນໃຈຂອງການຊີ້ນໍາ.
ພະນັກງານ ຜູ້ທີ່ເຫັນການກະທຳຜິດແມ່ນຖືກປົກປ້ອງພາຍໃຕ້ EU ຄຳສັ່ງ Whistleblowing:
- ຊ່ອງທາງການລາຍງານຄວາມລັບແມ່ນມີຄວາມຈໍາເປັນສໍາລັບບໍລິສັດທີ່ມີ 50+ ພະນັກງານ.
- ການແກ້ແຄ້ນ - ການໄລ່ອອກ, ການເລື່ອນຊັ້ນ, ການຂົ່ມຂູ່ - ແມ່ນຖືກຫ້າມຢ່າງຈະແຈ້ງ.
- Whistleblowers ອາດຈະ escalated ພາຍນອກກັບຜູ້ຄວບຄຸມຫຼືຫນັງສືພິມຖ້າຫາກວ່າເສັ້ນທາງພາຍໃນລົ້ມເຫລວ.
ການສ້າງສາຍການລາຍງານທີ່ບໍ່ເປີດເຜີຍຊື່ທີ່ມີການໂຄສະນາດີແມ່ນເປັນທັງຄວາມຕ້ອງການທາງດ້ານກົດໝາຍ ແລະລະບົບການເຕືອນໄພລ່ວງໜ້າທີ່ສາມາດຊ່ວຍປະຢັດທ່ານຈາກການບັງຄັບໃຊ້ຄ່າໃຊ້ຈ່າຍທີ່ແພງຂຶ້ນ.
ການສ້າງແຜນທີ່ AI Act ກັບ GDPR, NIS2, ຄວາມປອດໄພຂອງຜະລິດຕະພັນ, ແລະກົດລະບຽບຂອງຂະແຫນງການ
ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍວ່າດ້ວຍ AI) ບໍ່ແມ່ນເກາະທີ່ໂດດດ່ຽວ. ມັນສຽບເຂົ້າໄປໃນມະຫາສະຫມຸດທີ່ມີການປະຕິບັດຕາມທີ່ແອອັດທີ່ປະກອບມີການປົກປ້ອງຂໍ້ມູນ, ຄວາມປອດໄພທາງອິນເຕີເນັດ, ແລະກອບຄວາມປອດໄພໃນແນວຕັ້ງ. ການບໍ່ສົນໃຈກະແສຂ້າມເຫຼົ່ານັ້ນແມ່ນມີຄວາມສ່ຽງ: ລະບົບ AI ທີ່ຫມາຍໃສ່ທຸກໆກ່ອງ AI Act ຍັງສາມາດລະເມີດ GDPR ຫຼື NIS2, ແລະໃນທາງກັບກັນ. ຂ້າງລຸ່ມນີ້ພວກເຮົາເນັ້ນໃສ່ຈຸດສໍາພັດທີ່ສໍາຄັນເພື່ອໃຫ້ທີມງານທາງດ້ານກົດຫມາຍ, ຄວາມປອດໄພ, ແລະຜະລິດຕະພັນຂອງທ່ານສາມາດສ້າງແຜນທີ່ການຄວບຄຸມແບບປະສົມປະສານດຽວ, ແທນທີ່ຈະ juggling ສີ່ລາຍການກວດກາແຍກຕ່າງຫາກ.
ທັບຊ້ອນກັນກັບ GDPR ແລະ ePrivacy
- ພື້ນຖານທີ່ຖືກຕ້ອງຕາມກົດໝາຍ ແລະຂໍ້ຈຳກັດຈຸດປະສົງ: ການປະມວນຜົນຂໍ້ມູນສ່ວນຕົວພາຍໃນຕົວແບບທີ່ມີຄວາມສ່ຽງສູງຕ້ອງຕອບສະໜອງຢ່າງໜ້ອຍໜຶ່ງສ່ວນ GDPR (ມັກຈະໄດ້ຮັບຄວາມສົນໃຈ ຫຼື ການຍິນຍອມທີ່ຖືກຕ້ອງ).
- ຂໍ້ຈໍາກັດການຕັດສິນໃຈອັດຕະໂນມັດ: ມາດຕາ 22 GDPR ຈໍາກັດການຕັດສິນໃຈອັດຕະໂນມັດຢ່າງເຕັມສ່ວນໂດຍມີຜົນກະທົບທາງດ້ານກົດຫມາຍຫຼືທີ່ສໍາຄັນ; ຂໍ້ກໍານົດກ່ຽວກັບການຄວບຄຸມມະນຸດຂອງກົດໝາຍ AI ມັກຈະເຮັດໜ້າທີ່ເປັນການປົກປ້ອງທາງດ້ານວິຊາການທີ່ປົດລັອກມາດຕາ 22(2)(b) ຫຼື (c) ການຍົກເວັ້ນ.
- ສະຖານະການຄວບຄຸມຮ່ວມກັນ: ເມື່ອຜູ້ປະຕິບັດການປັບ GPAI ສະຫນອງໃຫ້ໂດຍຜູ້ຂາຍ, ທັງສອງອາດຈະກາຍເປັນ. ຜູ້ຄວບຄຸມຮ່ວມພາຍໃຕ້ GDPR—ວາງແຜນຂໍ້ຕົກລົງການປະມວນຜົນຂໍ້ມູນຕາມຄວາມເໝາະສົມ.
- ໜ້າທີ່ຄວາມໂປ່ງໃສ ແຕະສອງເທື່ອ: ກົດໝາຍ AI ກຳນົດການເປີດເຜີຍຂໍ້ມູນຂອງຜູ້ໃຊ້ (“AI ສ້າງຂຶ້ນ”), ໃນຂະນະທີ່ GDPR ມາດຕາ 12-14 ຕ້ອງການແຈ້ງການຄວາມເປັນສ່ວນຕົວທີ່ລາຍລະອຽດການໄຫຼເຂົ້າຂອງຂໍ້ມູນ, ການເກັບຮັກສາ ແລະສິດ. ຮ່າງແຈ້ງການຊັ້ນດຽວທີ່ກວມເອົາທັງສອງ.
Cybersecurity ແລະ NIS2 Synergies
NIS2 ຮຽກຮ້ອງໃຫ້ມີການປະເມີນຄວາມສ່ຽງ, ການຕອບໂຕ້ເຫດການ, ແລະຄວາມປອດໄພຕ່ອງໂສ້ການສະຫນອງສໍາລັບຫນ່ວຍງານ "ສໍາຄັນ" ແລະ "ສໍາຄັນ". ກົດໝາຍວ່າດ້ວຍ AI ສະທ້ອນເຖິງວ່າໂດຍການຮຽກຮ້ອງໃຫ້ມີການທົດສອບຄວາມແຂງແຮງ, ການກວດສອບຄວາມສ່ຽງ, ແລະການລາຍງານການລະເມີດພາຍໃນ 15 ມື້. ນໍາໃຊ້ຂັ້ນຕອນການເຮັດວຽກ SOC ຫນຶ່ງ:
- ດຳເນີນການທົດສອບຄວາມເຂັ້ມແຂງຂອງຝ່າຍຄ້ານໃນລະຫວ່າງການປະເມີນຄວາມສອດຄ່ອງກັບກົດໝາຍ AI.
- ປ້ອນຜົນໄດ້ຮັບເຂົ້າໃນທະບຽນຄວາມສ່ຽງ NIS2.
- ໃຊ້ປື້ມບັນທຶກເຫດການ 72 ຊົ່ວໂມງດຽວກັນກັບທັງສອງລະບອບ.
ການປະສົມປະສານກັບນິຕິກໍາຜະລິດຕະພັນທີ່ມີຢູ່ແລ້ວ
ຖ້າ AI ຂອງເຈົ້າເປັນອົງປະກອບຄວາມປອດໄພຂອງຜະລິດຕະພັນທີ່ຖືກຄວບຄຸມ (ອຸປະກອນການແພດ, ເຄື່ອງຈັກ, ເຄື່ອງຫຼີ້ນ, ຍົກ, ລະບົບຍານຍົນ), ທ່ານຕ້ອງປະຕິບັດ ດຽວ ການປະເມີນຄວາມສອດຄ່ອງທີ່ກວມເອົາ:
- ຄວາມປອດໄພທົ່ວໄປຫຼືຄວາມຕ້ອງການປະຕິບັດຕາມກົດຫມາຍຂະແຫນງການ; ແລະ
- ຫຼັກການຂອງ AI Act (ການຄຸ້ມຄອງຄວາມສ່ຽງ, ການຄຸ້ມຄອງຂໍ້ມູນ, ການຄວບຄຸມຂອງມະນຸດ).
ມາດຕະຖານທີ່ສອດຄ່ອງກັນພາຍໃຕ້ກອບນິຕິກໍາໃຫມ່ໃນໄວໆນີ້ຈະອ້າງອີງທັງສອງຊຸດຂອງຄວາມຕ້ອງການ, ອະນຸຍາດໃຫ້ເອກະສານດ້ານວິຊາການຫນຶ່ງແລະເຄື່ອງຫມາຍ CE ຫນຶ່ງ.
ຕົວຢ່າງສະເພາະຂອງຂະແໜງການ
- ການບໍລິການດ້ານການເງິນ: ສົມທົບການລົງທືນກົດໝາຍ AI ກັບຂໍ້ແນະນຳ EBA ກ່ຽວກັບການຕ້ານການຟອກເງິນ ເພື່ອເປັນຕົວແບບຫຼັກຖານທີ່ມີຄວາມຍຸຕິທຳ ແລະ ການອະທິບາຍ.
- ການຄຸ້ມຄອງຕາຂ່າຍໄຟຟ້າ: mesh AI Act ຄວບຄຸມຄວາມສ່ຽງທີ່ມີຄວາມຕ້ອງການຄວາມປອດໄພທາງອິນເຕີເນັດຂອງ ENTSO-E ສໍາລັບລະບົບ SCADA.
- ຍານຍົນ: UNECE WP.29 ມອບສິດການຄຸ້ມຄອງການປັບປຸງຊອບແວ; ເຊື່ອມໂຍງບັນທຶກການປັບປຸງເຫຼົ່ານັ້ນເຂົ້າໃນການຕິດຕາມຕະຫຼາດຫຼັງຕະຫຼາດ AI Act ຂອງທ່ານ.
- ການດູແລສຸຂະພາບ: ຈັບຄູ່ ISO 13485 QMS artifacts ກັບເອກະສານຊຸດຂໍ້ມູນຂອງ AI Act ເພື່ອຫຼີກເວັ້ນການກວດສອບຊ້ໍາຊ້ອນ.
ການປຽບທຽບລະຫວ່າງປະເທດ
ບໍລິສັດທົ່ວໂລກຕ້ອງປອງດອງກັນກັບກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ (ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດ (AI)) ກັບກົດລະບຽບທີ່ພົ້ນເດັ່ນຢູ່ບ່ອນອື່ນ:
| jurisdiction | ເຄື່ອງມືທີ່ສໍາຄັນ | ຄວາມແຕກຕ່າງທີ່ໂດດເດັ່ນ |
|---|---|---|
| US | ຄໍາສັ່ງບໍລິຫານ & NIST AI RMF | ສະໝັກໃຈ ແຕ່ອາດຈະກາຍເປັນພື້ນຖານການຈັດຊື້ຂອງລັດຖະບານກາງ |
| ຈີນ | ມາດຕະການ Gen-AI ຊົ່ວຄາວ | ການລົງທະບຽນຊື່ແທ້ ແລະການກັ່ນຕອງເນື້ອຫາແມ່ນບັງຄັບ |
| UK | ໂຄງຮ່າງການສົ່ງເສີມນະວັດຕະກໍາ | ຄໍາແນະນໍາສະເພາະຂອງຜູ້ຄວບຄຸມ, ບໍ່ມີກົດຫມາຍແນວນອນເທື່ອ |
ໂດຍການສ້າງແຜນທີ່ທັບຊ້ອນກັນໃນຕອນຕົ້ນ, ທີມງານຫຼາຍປະເທດສາມາດອອກແບບກອບການຄວບຄຸມທີ່ຕອບສະຫນອງກົດລະບຽບທີ່ເຂັ້ມງວດທີ່ສຸດທີ່ກໍານົດໄວ້ກ່ອນ, ຫຼັງຈາກນັ້ນກົດລົງບ່ອນທີ່ກົດຫມາຍທ້ອງຖິ່ນອ່ອນກວ່າ.
ບັນຊີລາຍຊື່ການປະຕິບັດຕາມການປະຕິບັດແລະການປະຕິບັດທີ່ດີທີ່ສຸດ
ການປ່ຽນບົດຄວາມ ແລະຄຳບັນຍາຍຂອງກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ (ກົດໝາຍວ່າດ້ວຍ AI) ໄປສູ່ການປະຕິບັດປະຈໍາວັນສາມາດຮູ້ສຶກເປັນຕາຢ້ານ. ເຄັດລັບແມ່ນເພື່ອທໍາລາຍການເດີນທາງເຂົ້າໄປໃນການກະທໍາຂະຫນາດທີ່ທີມງານທາງດ້ານກົດຫມາຍ, ຜະລິດຕະພັນ, ແລະຄວາມປອດໄພສາມາດເປັນເຈົ້າຂອງໄດ້. ໃຊ້ແຜນທີ່ເສັ້ນທາງ 12 ຂັ້ນຕອນຂ້າງລຸ່ມນີ້ເປັນແຜນການດໍາລົງຊີວິດ, ກວດເບິ່ງມັນຢູ່ໃນທຸກໆການສາທິດແລະກອງປະຊຸມຄະນະກໍາມະຈົນກ່ວາເດືອນສິງຫາ 2027.
- ສິນຄ້າຄົງຄັງທຸກໆ AI ຫຼືສ່ວນປະກອບຂອງລະບົບສູດການຄິດໄລ່ໃນການຜະລິດແລະ R&D.
- ຈັດແບ່ງລະດັບຄວາມສ່ຽງຂອງແຕ່ລະລະບົບແລະພາລະບົດບາດນັກສະແດງຂອງທ່ານ (ຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້, ຜູ້ນໍາເຂົ້າ, ຜູ້ຈັດຈໍາຫນ່າຍ).
- ແຜນທີ່ກົດຫມາຍທີ່ໃຊ້ໄດ້ (GDPR, NIS2, ລະບຽບຂະແຫນງການ) ແລະກໍານົດການທັບຊ້ອນ.
- ປະຕິບັດການວິເຄາະຊ່ອງຫວ່າງຕໍ່ກັບຂໍ້ກໍານົດທີ່ສໍາຄັນຂອງ AI Act.
- ອອກແບບ ຫຼືປັບປຸງລະບົບການຄຸ້ມຄອງຄຸນນະພາບ (QMS).
- ຢືນຂຶ້ນໂຄງປະກອບການຄຸ້ມຄອງຫຼາຍວິຊາການ.
- ຮ່າງແມ່ແບບເອກະສານດ້ານວິຊາການແລະເລີ່ມຕົ້ນການຕື່ມຂໍ້ມູນໃສ່.
- ສ້າງທໍ່ຂໍ້ມູນ-ການປົກຄອງ ແລະການທົດສອບອະຄະຕິ.
- ດໍາເນີນການປະເມີນຄວາມສອດຄ່ອງເບື້ອງຕົ້ນຫຼືການກວດສອບແບບແຫ້ງແລ້ງ.
- ຝຶກອົບຮົມພະນັກງານ-ວິສະວະກອນ, ເຈົ້າຂອງຄວາມສ່ຽງ, ແລະການຊ່ວຍເຫຼືອລູກຄ້າ.
- ເປີດຕົວການຕິດຕາມຕະຫຼາດຫຼັງຕະຫຼາດ ແລະຂັ້ນຕອນການລາຍງານເຫດການ.
- ກຳນົດເວລາການທົບທວນແຕ່ລະໄລຍະ ແລະການປັບປຸງຢ່າງຕໍ່ເນື່ອງ.
ການປະເມີນຄວາມພ້ອມ ແລະການວິເຄາະຊ່ອງຫວ່າງ
ເລີ່ມຕົ້ນດ້ວຍຕາຕະລາງຕາຕະລາງຫຼືຕາຕະລາງປີ້: ຊື່ລະບົບ, ຈຸດປະສົງ, ແຫຼ່ງຂໍ້ມູນການຝຶກອົບຮົມ, ລະດັບຄວາມສ່ຽງ, ການຄວບຄຸມທີ່ມີຢູ່ແລ້ວ, ແລະຊ່ອງຫວ່າງເປີດ. ກຳນົດແຕ່ລະຊ່ອງຫວ່າງໃຫ້ເຈົ້າຂອງ ແລະກຳນົດເວລາ. ຄະແນນຄວາມສ່ຽງທີ່ຍັງເຫຼືອຫຼັງຈາກການປິດທຸກໆຄັ້ງ; ຜູ້ຄວບຄຸມມັກເຫັນເສັ້ນທາງການປັບປຸງແບບຊ້ຳໆນັ້ນ.
ການສ້າງໂຄງສ້າງການປົກຄອງທີ່ຖືກຕ້ອງ
ເອົາປະຊາຊົນ, ບໍ່ພຽງແຕ່ນະໂຍບາຍ, ຮັບຜິດຊອບ:
- ເຈົ້າຫນ້າທີ່ປະຕິບັດຕາມ AI: ຄໍດຽວເພື່ອ choke.
- ຄະນະກໍາມະຈັນຍາບັນຂ້າມຫນ້າທີ່: ຜະລິດຕະພັນ, ດ້ານກົດຫມາຍ, ຄວາມປອດໄພ, HR.
- ຜູ້ກວດສອບພາຍນອກ ຫຼືການຕິດຕໍ່ພົວພັນກັບອົງການທີ່ໄດ້ຮັບການແຈ້ງເຕືອນ.
- ການເຊື່ອມຕໍ່ທີ່ເຄັ່ງຄັດກັບ DPO ແລະ CISO ຂອງທ່ານເພື່ອຫຼີກເວັ້ນການຕັດສິນໃຈທີ່ບໍ່ມີປະໂຫຍດ.
ເອກະສານກອງປະຊຸມ cadence, ສິດການຕັດສິນໃຈ, ແລະເສັ້ນທາງ escalation.
ເອກະສານ ແລະເຄື່ອງມື
ມາດຕະຖານຂອງ artefacts ດັ່ງນັ້ນວິສະວະກອນບໍ່ໄດ້ reinventing ລໍ້:
| ແມ່ແບບ | ຈຸດປະສົງ | ຮູບແບບທີ່ແນະນໍາ |
|---|---|---|
| ບັດຕົວແບບ | ຄວາມສາມາດ, ຂີດຈຳກັດ, ວັດແທກ | Markdown + JSON |
| Data Sheet | ແຫຼ່ງຂໍ້ມູນ, ໃບອະນຸຍາດ, ການທົດສອບຄວາມລໍາອຽງ | ຕາຕະລາງ |
| ບົດລາຍງານຄວາມໂປ່ງໃສ | ການເປີດເຜີຍທີ່ປະເຊີນກັບຜູ້ໃຊ້ | HTML / PDF |
| ສິດທິພື້ນຖານ IA | ພະນັກງານພາກລັດ | ເຄື່ອງມືທີ່ອີງໃສ່ແບບຟອມ |
ການຊ່ວຍເຫຼືອໃນແຫຼ່ງເປີດ: EU AI Toolkit, ISO/IEC 42001 ຮ່າງລາຍການກວດສອບ, ແລະ GitHub repos ສໍາລັບ metrics bias.
ການຄຸ້ມຄອງຜູ້ຂາຍ ແລະລະບົບຕ່ອງໂສ້ການສະໜອງ
Flow AI Act ຫນ້າທີ່ລົງລຸ່ມ:
- ຕື່ມການຮັບປະກັນການປະເມີນຄວາມສອດຄ່ອງ ແລະສິດທິໃນການກວດສອບ ສັນຍາ.
- ຮຽກຮ້ອງໃຫ້ຜູ້ສະຫນອງແບ່ງປັນບັດແບບຈໍາລອງ, ຜົນການທົດສອບຄວາມທົນທານ, ແລະບັນທຶກເຫດການ.
- ຕັ້ງຄ່າ Slack ຫຼືແຖວປີ້ທີ່ໃຊ້ຮ່ວມກັນສໍາລັບການເປີດເຜີຍຄວາມອ່ອນແອຢ່າງໄວວາ.
ການຕິດຕາມຢ່າງຕໍ່ເນື່ອງ ແລະການປັບປຸງວົງຈອນຊີວິດແບບຈໍາລອງ
ການຕິດຕາມກວດກາກ່ອນການນຳໃຊ້, ການນຳໃຊ້, ແລະຫຼັງການຕິດຕັ້ງຄວນຈະໝົດໄປໃນການຕິດຕັ້ງ telemetry ດຽວກັນ. ກະຕຸ້ນການປະເມີນຄືນເມື່ອ:
- ການປ່ຽນແປງການແຈກຢາຍຂໍ້ມູນການປ້ອນຂໍ້ມູນ (
KL divergence> ເກນກຳນົດໄວ້ລ່ວງໜ້າ). - ຄວາມຖືກຕ້ອງຫຼຸດລົງຕໍ່າສຸດທີ່ປະກາດໄວ້.
- ເຫດການຮ້າຍແຮງ ຫຼື ການພາດໃກ້ຈະຖືກບັນທຶກ.
ປິດຮອບດ້ວຍການທົບທວນດ້ານການປົກຄອງປະຈຳໄຕມາດ ແລະ ການກວດສອບພາຍນອກປະຈຳປີ—ຫຼັກຖານສະແດງວ່າການປະຕິບັດຕາມບໍ່ແມ່ນໂຄງການດຽວ ແຕ່ເປັນຄວາມສາມາດຢືນ.
FAQ: ຄໍາຕອບດ່ວນຕໍ່ກັບຄໍາຖາມທົ່ວໄປ
ກົດໝາຍ AI ຂອງ EU ມີຜົນບັງຄັບໃຊ້ແລ້ວບໍ?
ແມ່ນແລ້ວ. ລະບຽບການ (EU) 2024/1689 ໄດ້ມີຜົນບັງຄັບໃຊ້ໃນວັນທີ 1 ສິງຫາ 2024. ແນວໃດກໍ່ຕາມ, ໄລຍະພັນທະທີ່ຊັດເຈນທີ່ສຸດໃນໄລຍະຕໍ່ມາ: ການປະຕິບັດການຫ້າມຈະຫາຍໄປພາຍໃນເດືອນກຸມພາ 2025, ກົດລະບຽບຄວາມໂປ່ງໃສເລີ່ມແຕ່ເດືອນສິງຫາ 2025, ຫນ້າທີ່ມີຄວາມສ່ຽງສູງມາຮອດເດືອນສິງຫາ 2026 ( biometrics ສິງຫາ 2027). ດັ່ງນັ້ນໂມງແມ່ນ ticking ເຖິງແມ່ນວ່າຄໍາຮ້ອງສະຫມັກເຕັມແມ່ນຍັງ staged.
ສີ່ລະດັບຄວາມສ່ຽງແມ່ນຫຍັງ?
ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບຈັດກຸ່ມລະບົບຕ່າງໆເປັນ (1) ຄວາມສ່ຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້—ຖືກຫ້າມທັງໝົດ; (2) ຄວາມສ່ຽງສູງ - ອະນຸຍາດໃຫ້ພຽງແຕ່ຫຼັງຈາກການປະເມີນຄວາມສອດຄ່ອງແລະເຄື່ອງຫມາຍ CE; (3) ຄວາມສ່ຽງທີ່ຈໍາກັດ - ສ່ວນໃຫຍ່ແມ່ນຫນ້າທີ່ໂປ່ງໃສ (ເຊັ່ນ: chatbots, deepfakes); ແລະ (4) ຄວາມສ່ຽງໜ້ອຍທີ່ສຸດ—ບໍ່ມີກົດລະບຽບທີ່ຍາກ ແຕ່ລະຫັດສະໝັກໃຈໄດ້ຮັບການຊຸກຍູ້. ວຽກທຳອິດຂອງເຈົ້າແມ່ນການສ້າງແຜນທີ່ແຕ່ລະແບບໃສ່ໜຶ່ງໃນຊັ້ນເຫຼົ່ານີ້.
ກົດຫມາຍວ່າດ້ວຍການທົດແທນຍຸດທະສາດ AI ແຫ່ງຊາດບໍ?
ບໍ່. ປະເທດສະມາຊິກອາດຈະຮັກສາ ຫຼືສ້າງຍຸດທະສາດແຫ່ງຊາດ, ກ່ອງຊາຍ, ແລະແຜນການສະໜອງທຶນ. ກົດຫມາຍວ່າດ້ວຍພຽງແຕ່ປະສົມກົມກຽວ ກົດລະບຽບ ຂໍ້ກໍານົດເພື່ອໃຫ້ວິສາຫະກິດປະເຊີນກັບກົດລະບຽບຫນຶ່ງໃນທົ່ວ EU. ຂໍ້ລິເລີ່ມທ້ອງຖິ່ນຕ້ອງບໍ່ຂັດກັບກອບຄວາມສ່ຽງຂອງລະບຽບການ ຫຼືທໍາລາຍກົນໄກການບັງຄັບໃຊ້ຂອງຕົນ.
ການເລີ່ມຕົ້ນມີການຍົກເວັ້ນບໍ?
ບໍ່ແມ່ນແທ້ໆ. ກົດລະບຽບຈະນໍາໃຊ້ໂດຍບໍ່ຄໍານຶງເຖິງຂະຫນາດຂອງບໍລິສັດເນື່ອງຈາກວ່າຄວາມສ່ຽງ, ບໍ່ແມ່ນລາຍຮັບ, ຂັບລົດພັນທະ. ທີ່ເວົ້າວ່າ, ກ່ອງຊາຍ, ເອກະສານທີ່ອ່ອນກວ່າສໍາລັບບາງຮູບແບບ GPAI, ແລະຄໍາແນະນໍາທີ່ໄດ້ຮັບທຶນຈາກຄະນະກໍາມະການມີຈຸດປະສົງເພື່ອຫຼຸດຜ່ອນຄວາມຂັດແຍ້ງດ້ານການບໍລິຫານສໍາລັບ SMEs. ການລະເວັ້ນການປະຕິບັດຕາມເພາະວ່າເຈົ້າ "ນ້ອຍ" ແມ່ນຄວາມເຂົ້າໃຈຜິດທີ່ເປັນອັນຕະລາຍ.
ກົດໝາຍວ່າດ້ວຍ AI ປະຕິບັດຕໍ່ຕົວແບບ open-source ແນວໃດ?
ການປ່ອຍນ້ໍາຫນັກຕົວແບບຢ່າງເປີດເຜີຍບໍ່ໄດ້ຍົກເວັ້ນທ່ານ. ທ່ານຍັງຄົງຕ້ອງໃຫ້ບົດສະຫຼຸບຂໍ້ມູນການຝຶກອົບຮົມ, ເນື້ອຫາທີ່ສ້າງດ້ວຍລາຍນໍ້າ, ແລະເຜີຍແຜ່ຄໍາແນະນໍາການນໍາໃຊ້. ພັນທະແມ່ນອ່ອນກວ່າສໍາລັບຮູບແບບການຄ້າປິດ, ແຕ່ຖ້າລະບົບແຫຼ່ງເປີດຂອງທ່ານກາຍເປັນ "GPAI ທີ່ເປັນລະບົບ", ການທົດສອບເພີ່ມເຕີມແລະການລາຍງານຫນ້າທີ່ເລີ່ມຕົ້ນ.
ກົດໝາຍເປັນຄຳສັ່ງບໍ?
ບໍ່. ມັນເປັນກົດລະບຽບ—ໃຊ້ໄດ້ໂດຍກົງໃນທຸກໆລັດສະມາຊິກ ໂດຍບໍ່ມີການປ່ຽນປະເທດ. ຄິດວ່າມັນຄືກັບ GDPR: ເມື່ອມັນເຂົ້າສູ່ຜົນບັງຄັບໃຊ້, ພັນທະທາງດ້ານກົດຫມາຍແມ່ນມີຢູ່ທົ່ວ EU, ແລະພຽງແຕ່ຄໍາແນະນໍາການບັງຄັບໃຊ້ຕົວຈິງສາມາດແຕກຕ່າງກັນໃນທ້ອງຖິ່ນ.
ຈະເກີດຫຍັງຂຶ້ນຖ້າຜູ້ໃຫ້ບໍລິການຂອງຂ້ອຍຢູ່ນອກ EU?
ການເຂົ້າເຖິງອານາເຂດດັ່ງຕໍ່ໄປນີ້ output, ບໍ່ແມ່ນສໍານັກງານໃຫຍ່. ຖ້າລະບົບຂອງຜູ້ຂາຍຢູ່ຕ່າງປະເທດຖືກວາງຂາຍໃນ EU ຫຼືຜົນໄດ້ຮັບຂອງມັນຖືກນໍາໃຊ້ຢູ່ທີ່ນີ້, ຜູ້ໃຫ້ບໍລິການຕ້ອງຕອບສະຫນອງຂໍ້ກໍານົດຂອງ EU AI Act ແລະກໍານົດຕົວແທນທາງດ້ານກົດຫມາຍທີ່ອີງໃສ່ EU. ຜູ້ຈັດວາງພາຍໃນສະຫະພັນຍັງຄົງປະຕິບັດພັນທະຂອງຜູ້ໃຊ້, ສະນັ້ນເລືອກຜູ້ສະຫນອງຢ່າງລະມັດລະວັງ.
Key Takeaways
ຍັງ skimming? ນີ້ແມ່ນເອກະສານການຫຼອກລວງ:
- ກົດໝາຍວ່າດ້ວຍປັນຍາທຽມຂອງສະຫະພາບຢູໂຣບ (AI) ແມ່ນບໍ່ແມ່ນຮ່າງກົດໝາຍອີກຕໍ່ໄປແລ້ວ ເລີ່ມແຕ່ວັນທີ 1 ສິງຫາ 2024 ເປັນຕົ້ນໄປ ແລະນໍາເອົາກົດຫມາຍ AI ຕາມແນວນອນ, ຄວາມສ່ຽງທໍາອິດມາທຸກບ່ອນ.
- ລະດັບຄວາມສ່ຽງເຮັດໃຫ້ທຸກສິ່ງທຸກຢ່າງ: ລະບົບທີ່ຍອມຮັບບໍ່ໄດ້ຖືກຫ້າມ, ລະບົບທີ່ມີຄວາມສ່ຽງສູງຕ້ອງການເຄື່ອງຫມາຍ CE ແລະການລົງທະບຽນ, ໃນຂະນະທີ່ມີຈໍາກັດ, ແລະເຄື່ອງມືທີ່ມີຄວາມສ່ຽງຫນ້ອຍທີ່ສຸດປະເຊີນກັບຫນ້າທີ່ເບົາກວ່າ - ແຕ່ບໍ່ແມ່ນສູນ.
- ການບໍ່ປະຕິບັດຕາມແມ່ນລາຄາແພງ: ເຖິງ 35 ລ້ານເອີໂຣ ຫຼື 7% ຂອງມູນຄ່າການຄ້າທົ່ວໂລກ ສໍາລັບການປະຕິບັດທີ່ຖືກຫ້າມ, ບວກກັບຄວາມຮັບຜິດຊອບທາງແພ່ງທີ່ອາດຈະເກີດຂຶ້ນພາຍໃຕ້ຄໍາແນະນໍາຂອງ EU.
- ພັນທະຢູ່ທົ່ວລະບົບຕ່ອງໂສ້ການສະຫນອງ: ຜູ້ໃຫ້ບໍລິການ, ຜູ້ໃຊ້, ຜູ້ນໍາເຂົ້າ, ແລະຜູ້ຈັດຈໍາຫນ່າຍແຕ່ລະຄົນມີລາຍການກວດສອບສະເພາະ, ແລະຮູບແບບທົ່ວໄປໃນປັດຈຸບັນມີກົດລະບຽບທີ່ກໍານົດເອງ.
- ກົດໝາຍດັ່ງກ່າວບໍ່ໄດ້ທົດແທນ GDPR, NIS2, ຫຼືກົດໝາຍວ່າດ້ວຍຄວາມປອດໄພຂອງຜະລິດຕະພັນ; ທ່ານຕ້ອງເຊື່ອມຕໍ່ຂອບການທັງຫມົດເຂົ້າໄປໃນໂຄງການການຄຸ້ມຄອງປະສົມປະສານດຽວ.
ຕ້ອງການຄວາມຊ່ວຍເຫຼືອໃນການປ່ຽນຂໍ້ຄວາມທາງກົດໝາຍໃຫ້ເປັນລະຫັດການເຮັດວຽກ, ນະໂຍບາຍ ແລະສັນຍາບໍ? ເທກໂນໂລຍີແລະທະນາຍຄວາມຄວາມເປັນສ່ວນຕົວທີ່ Law & More ສາມາດສະແກນຄວາມພ້ອມຂອງ AI Act ຢ່າງໄວວາ, ຮ່າງເອກະສານທີ່ຕ້ອງການ, ແລະນໍາພາທ່ານຜ່ານການປະເມີນຄວາມສອດຄ່ອງ - ກ່ອນທີ່ຜູ້ກວດສອບຈະມາເຄາະ.