ChatGPT பயன்படுத்தினால் கடுமையான தண்டனை, அபராதம்: வக்கீலக்ளுக்கு கிளாஸ் எடுத்த நீதிபதி

ChatGPT Latest News: வழக்கறிஞர்கள், AI ஆல் உருவாக்கப்பட்ட தவறான தகவல்களை நீதிமன்றத்தில் சமர்ப்பித்தால், குற்றவியல் வழக்குத் தொடரப்படுவதற்கான வாய்ப்பு உட்பட ‘கடுமையான தடைகளை’ எதிர்கொள்ள நேரிடும் என்று எச்சரிக்கப்பட்டுள்ளது. இங்கிலாந்து மற்றும் வேல்ஸில் இந்த எச்சரிக்கை விடுக்கப்பட்டுள்ளது.

சட்ட வழக்குகளை வாதிடுவதற்கு AI கருவிகளின் பயன்பாடு அதிகரித்து வருவதைக் கண்டித்து, லண்டன் உயர் நீதிமன்றம் வெள்ளிக்கிழமை, உண்மையில் இல்லாத வழக்குகளை மேற்கோள் காட்டுவதாக கண்டறியப்பட்டால், அத்தகைய வழக்கறிஞர்கள் நீதிமன்ற அவமதிப்புக்கான குற்றச்சாட்டுகள் அல்லது குற்றவியல் குற்றச்சாட்டுகளை எதிர்கொள்ள நேரிடும் என்று தீர்ப்பளித்தது. ஜெனரேடிவ் செயற்கை நுண்னறிவு (Generative AI) வழக்கறிஞர்களை தவறாக வழிநடத்தும் போக்குக்கான புதிய உதாரணம் இது என்று சட்ட வல்லுநர்கள் கூறுகின்றனர்.

AI பயன்படுத்தி மாட்டிக்கொண்ட வழக்கறிஞர்கள்

இரண்டு வழக்குகளில், எழுத்துப்பூர்வ வாதங்களைத் தயாரிக்கும்போது செயற்கை நுண்ணறிவு கருவிகளைப் பயன்படுத்திய வழக்கறிஞர்களை ஒரு மூத்த நீதிபதி கடுமையாக சாடினார். அவை போலி வழக்குச் சட்டத்தைக் குறிப்பிட்டன. மேலும் வழக்கறிஞர்கள் தங்கள் நெறிமுறைக் கடமைகளை அறிந்து கொள்வதை ஒழுங்குமுறை அதிகாரிகள் மற்றும் தொழில்துறைத் தலைவர்கள் உறுதி செய்ய வேண்டும் என அந்த நீதிபதி கூறினார்.

“செயற்கை நுண்ணறிவு தவறாகப் பயன்படுத்தப்பட்டால் நீதி நிர்வாகம் மற்றும் நீதி அமைப்பில் பொதுமக்கள் நம்பிக்கை வைப்பதில் கடுமையான தாக்கங்கள் ஏற்படடும்” என்று நீதிபதி விக்டோரியா ஷார்ப் ஒரு எழுத்துப்பூர்வ தீர்ப்பில் கூறினார்.

“அந்தச் சூழ்நிலைகளில், தனிப்பட்ட தலைமைப் பொறுப்புகளைக் கொண்ட சட்டத் தொழிலில் உள்ளவர்களும், சட்ட சேவைகளை வழங்குவதை ஒழுங்குபடுத்தும் பொறுப்பில் உள்ளவர்களும் இப்போது நடைமுறைக்கு ஏற்ற மற்றும் பயனுள்ள நடவடிக்கைகளை எடுக்க வேண்டும்.” என்று அவர் மேலும் தெரிவித்தார்.

போலி தரவுகளை நம்பிய வழக்கறிஞர்கள்

ChatGPT மற்றும் பிற ஜெனரேடிவ் AI கருவிகள் இரண்டு ஆண்டுகளுக்கு முன்பிலிருந்து பரவலாகக் கிடைக்கத் தொடங்கியது முதல், உலகெங்கிலும் உள்ள வழக்கறிஞர்கள் போலி தரவுகளை நம்பியதற்காக தங்களை விளக்க வேண்டிய கட்டாயத்திற்கு ஆளான பிறகு இந்த தீர்ப்பு வந்துள்ளது குறிப்பிடத்தக்கது.

ஷார்ப் தனது தீர்ப்பில், உண்மையில் இல்லாத வழக்குகளைக் குறிப்பிடும் வழக்கறிஞர்கள் நீதிமன்றத்தை தவறாக வழிநடத்தாமல் இருக்க வேண்டிய கடமையை மீறுவதாக கருதப்படும் என்றும், இது நீதிமன்ற அவமதிப்புக்கும் சமமாக இருக்கலாம் என்றும் எச்சரித்தார்.

“மிக மோசமான வழக்குகளில், நீதி நிர்வாகத்தில் தலையிடும் நோக்கத்துடன் வேண்டுமென்றே தவறான தகவல்களை நீதிமன்றத்தில் வைப்பது, நீதியின் போக்கைத் திசைதிருப்பும் பொதுவான சட்டக் குற்றச் செயலாகும்” என்றும் அவர் மேலும் கூறினார்.

சட்ட ஒழுங்குமுறை அதிகாரிகளும் நீதித்துறையும் வழக்கறிஞர்கள் AI பயன்படுத்துவது குறித்து வழிகாட்டுதல்களை வெளியிட்டதாக ஷார்ப் குறிப்பிட்டார். ஆனால் “செயற்கை நுண்ணறிவின் தவறான பயன்பாட்டை நிவர்த்தி செய்ய அதன் சொந்த வழிகாட்டுதல் போதுமானதாக இல்லை” என்றும் அவர் கூறினார்.

ஜெனரேட்டிவ் AI நம்பிக்கை தரும் வகையில் உண்மைகளை உருவாக்குவதாக அறியப்படுகிறது. மேலும் அதைப் பயன்படுத்தும் வழக்கறிஞர்கள் எச்சரிக்கையாக இருக்க வேண்டும் என்று சட்ட வல்லுநர்கள் தெரிவித்தனர்.

AI சில நேரங்களில் தொழில்துறையில் “பிரமைகள்” என்று அழைக்கப்படும் தவறான தகவல்களை உருவாக்குகிறது. ஏனெனில் AI மாதிரிகள் அந்த தரவுத்தொகுப்புகளில் உள்ள உண்மைகளைச் சரிபார்க்காமல், அதற்கு பதிலாக, பெரிய தரவுத்தொகுப்புகளிலிருந்து கற்றுக்கொண்ட புள்ளிவிவர வடிவங்களின் அடிப்படையில் பதில்களை உருவாக்குகின்றன.

AI ஆல் கிடைத்த $5,000 அபராதம் 

இந்த வகையான முதல் வழக்குகளில் ஒன்றாக, ChatGPT உருவாக்கிய ஆறு கற்பனையான வழக்கு மேற்கோள்களைக் கொண்ட சட்ட சுருக்கங்களைப் பயன்படுத்தி ஒரு வழக்கை வாதிட முயன்றதற்காக இரண்டு நியூயார்க் வழக்கறிஞர்கள் மன்ஹாட்டன் நீதிபதியால் தடை செய்யப்பட்டனர். நவம்பர் 2022 இல் OpenAI சாட்பாட் தொடங்கப்பட்ட ஆறு மாதங்களுக்குப் பிறகு நடந்த ஒரு வழக்கின் விசாரணைக்கு தலைமை தாங்கிய நீதிபதி, வழக்கறிஞர்கள் ஒவ்வொருவருக்கும் $5,000 அபராதம் விதித்தார்.

இன்றைய காலகட்டத்தில் AI -இன் பயன்பாடு நாளுக்கு நாள் அதிகரித்துக்கொண்டிருக்கும் நிலையில், நீதித்துறை போன்ற மிக முக்கியமான துறைகளில் இவற்றின் பயன்பாடு என்னென்ன ஆபத்துகளை விளைவிக்கும் என்பதற்கு இந்த வழக்கு மிகச்சிறந்த எடுத்துக்காட்டாக உள்ளது. இதை அனைவரும் அறியும் வண்ணம் உணர்த்திய நீதிபதிக்கு பாராட்டுகள் வந்த வண்ணம் உள்ளன. 

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.