1
1
டம்ளர் ரிட்ஜ், பி.சி., மாஸ் ஷூட்டர் பற்றிய தகவல்களை, கொடிய சோகத்திற்கு சில மாதங்களுக்கு முன்பு OpenAI எவ்வாறு கையாண்டது என்பது பற்றிய விசாரணை, இதேபோன்ற சூழ்நிலைகளில் பொலிஸாருக்குத் தெரிவிக்க செயற்கை நுண்ணறிவு நிறுவனங்களை ஒழுங்குபடுத்துவது குறித்து கனடாவுக்கு ஒரு வாய்ப்பை வழங்குகிறது என்று நிபுணர்கள் கூறுகின்றனர்.
ஜூன் 2025 இல் AI சாட்போட்டை தவறாகப் பயன்படுத்தியதற்காக Jesse Van Rutschelaer உடன் இணைக்கப்பட்ட கணக்கை “முன்கூட்டியே” கண்டறிந்து தடை செய்ததாக ChatGPTக்குப் பின்னால் உள்ள நிறுவனம் கடந்த வாரம் உறுதிப்படுத்தியது.
இருப்பினும், “உடனடி” ஆபத்தின் உயர் உள் நுழைவாயிலை செயல்பாடு சந்திக்காததால், அந்த நேரத்தில் அது காவல்துறைக்கு அறிவிக்கவில்லை.
18 வயதான வான் ருட்செலார் பிப்ரவரி 10 அன்று தனது உயிரை மாய்த்துக்கொள்வதற்கு முன்பு எட்டு பேரைக் கொன்று 25 பேரைக் காயப்படுத்தியதாக பொலிசார் கூறியதை அடுத்து OpenAI இறுதியில் RCMP ஐ தொடர்பு கொண்டது.
செயற்கை நுண்ணறிவு அமைச்சர் இவான் சாலமன் செவ்வாயன்று ஒட்டாவாவிற்கு பிரதிநிதிகளை வரவழைத்து நிலைமை மற்றும் நிறுவனத்தின் பாதுகாப்பு நடைமுறைகள் குறித்து விவாதித்தார்.
செவ்வாயன்று கூட்டத்திற்கு முன் சாலமன் செய்தியாளர்களிடம் கூறினார், “AI சாட்போட்களைப் பற்றி நாம் என்ன செய்ய முடியும் என்பதைப் புரிந்து கொள்ளும்போது அனைத்து விருப்பங்களும் மேசையில் உள்ளன.”
ஹெரிடேஜ் மந்திரி மார்க் மில்லர், AI இயங்குதளங்களை உள்ளடக்கிய ஆன்லைன் பாதுகாப்பு சட்டத்தை உருவாக்க சாலமனுடன் இணைந்து பணியாற்றும் அமைச்சகம், அந்த மசோதாவை சரியாகப் பெறுவதற்கு அரசாங்கம் நேரம் எடுத்துக்கொள்வதாகவும், டம்ப்ளர் ரிட்ஜில் நடந்தவற்றுடன் அதை இணைக்காது என்றும் கூறினார்.
“தளங்கள் பொறுப்புடன் செயல்படுகின்றன என்பதை உறுதிப்படுத்த சட்டம் இருக்க வேண்டும் என்று நான் நினைக்கிறேன்,” என்று அவர் கூறினார். “அது எப்படி இருக்கிறது என்பது இன்னும் தீர்மானிக்கப்பட உள்ளது, மேலும் இது குறித்து உங்களுடன் ஒரு காலவரிசையை என்னால் விவாதிக்க முடியாது.
“இந்த சூழ்நிலையில், எளிதான பதில்களை விரும்புவது நியாயமானது என்று நான் நினைக்கிறேன், ஆனால் இந்த விஷயத்தில் எளிதான பதில்கள் இல்லை என்று நான் நினைக்கிறேன், குறிப்பாக வெளிப்படையான விசாரணையுடன். ஆனால்… இதுவரை நாம் பெற்றதை விட சிறந்த பதில்கள் தேவை.”
கனடிய தனியுரிமைச் சட்டம், தனியார் நிறுவனங்கள் குறிப்பிடத்தக்க தீங்கு விளைவிக்கும் அல்லது ஒரு சட்டம் மீறப்படும் என்று நம்பினால், அதிகாரிகள் அல்லது மற்றொரு நிறுவனத்திற்கு தனிப்பட்ட தகவல்களை வெளியிடக்கூடாது என்று கூறுகிறது.
ஓபன்ஏஐயின் “உடனடி” அச்சுறுத்தல் கண்டறிதல் போன்ற உள் வரம்புகளை அமைக்கும் எந்தவொரு கூடுதல் முடிவுகளையும் நிறுவனம் எடுக்க வேண்டும்.
“OpenAI மற்றும் பிற AI டெவலப்பர்கள் தங்களுக்குப் பொருத்தமான பாதுகாப்பு கட்டமைப்பு என்ன என்பதைத் தாங்களே தீர்மானிக்க அனுமதிப்பதில் ஆபத்து உள்ளது என்பதற்கான மற்றொரு அறிகுறி இது” என்று டிஜிட்டல் தொழில்நுட்பங்களுக்கும் இளைஞர்களின் மனநலத்திற்கும் இடையிலான உறவை ஆராய்ச்சி செய்யும் McGill பல்கலைக்கழகத்தின் உளவியல் உதவிப் பேராசிரியரான Vincent Paquin கூறினார்.
“இறுதியில், ChatGPT என்பது ஒரு வணிகத் தயாரிப்பு. இது அங்கீகரிக்கப்பட்ட சுகாதாரப் பாதுகாப்புக் கருவி அல்ல. அதனால், மனநல ஆதரவுக்காகவும், அந்தத் தொடர்புகளின் பாதுகாப்பு மற்றும் பாதுகாப்பு வழிமுறைகளைப் பற்றிய தெளிவான புரிதல் இல்லாமல், அவர்களின் வாழ்க்கையில் நடக்கும் விஷயங்களைப் பற்றிய முக்கியமான விவாதங்களுக்காகவும், ChatGPT மற்றும் பிற AI தயாரிப்புகளுக்கு மக்கள் எண்ணிக்கை அதிகரித்து வருவது கவலை அளிக்கிறது.”
கனடா மற்றும் உலகெங்கிலும் தாக்கத்தை ஏற்படுத்தும் செய்திகளுக்கு, அவை நிகழும்போது உங்களுக்கு நேரடியாக அனுப்பப்படும் முக்கிய செய்தி விழிப்பூட்டல்களுக்கு பதிவு செய்யவும்.
ஓபன்ஏஐ மற்றும் பிற AI சாட்போட் தயாரிப்பாளர்கள் அமெரிக்காவில் தங்கள் தளங்கள் இளைஞர்களை சுய-தீங்கு மற்றும் தற்கொலைக்கு தூண்டுவதற்கு உதவியதாக பல வழக்குகளை எதிர்கொண்டுள்ள நிலையில் இந்த வெளிப்பாடுகள் வந்துள்ளன.
ஓபன்ஏஐ அந்தக் குற்றச்சாட்டுகளை மறுக்கிறது மற்றும் அதன் பாதுகாப்பு மதிப்பீடு பெரும்பாலானவற்றை நிராகரிக்கிறது என்று கூறுகிறது.
வோல் ஸ்ட்ரீட் ஜர்னல், வான் ருட்செலாரின் ChatGPT செயல்பாடு பற்றிய OpenAI இன் முன் அறிவை முதலில் தெரிவித்தது, அவரது பதிவுகள் “பல நாட்களாக துப்பாக்கி வன்முறை சம்பந்தப்பட்ட காட்சிகளை விவரிக்கிறது” என்று இந்த விஷயத்தை நன்கு அறிந்தவர்கள் தெரிவிக்கின்றனர்.
நிறுவன ஊழியர்கள் இந்த இடுகைகளால் கவலைப்படுவதாகவும், கடந்த கோடையில் காவல்துறையை எச்சரிப்பதில் சந்தேகம் இருப்பதாகவும், நிறுவனம் அவ்வாறு செய்ய வேண்டாம் என்று முடிவு செய்வதற்கு முன்பும் அறிக்கை கூறியது.
குளோபல் நியூஸ் அறிக்கையில் உள்ள விவரங்களை சுயாதீனமாக உறுதிப்படுத்தவில்லை.
BC அரசாங்கம் சனிக்கிழமை ஒரு அறிக்கையில், OpenAI நிர்வாகிகள் பிப்ரவரி 11 அன்று அரசாங்கப் பிரதிநிதியை சந்தித்ததாகக் கூறியது – துப்பாக்கிச் சூடு நடந்த மறுநாள் – OpenAI இன் முதல் கனேடிய அலுவலகத்தைத் திறப்பதற்கான சாத்தியக்கூறுகளைப் பற்றி விவாதிக்க “ஒரு வாரத்திற்கு முன் திட்டமிடப்பட்ட சந்திப்பு”.
“டம்ப்ளர் ரிட்ஜில் நடந்த துப்பாக்கிச் சூடு தொடர்பான சாத்தியமான ஆதாரங்கள் இருப்பதாக ஓபன்ஏஐ அரசாங்கத்தின் எந்த உறுப்பினருக்கும் தெரிவிக்கவில்லை” என்று அரசாங்கம் கூறியது, ஆனால் ஓபன்ஏஐ பிப்ரவரி 12 அன்று மாகாணத்திலிருந்து ஆர்சிஎம்பிக்கான தொடர்புத் தகவலைக் கோரியதாகக் குறிப்பிட்டது.
கனடாவின் தனியுரிமை ஆணையர், பிலிப் டுஃப்ரெஸ்னே, கனடிய வணிக அலுவலகத்தை தொடர்பு கொள்ளாததால், டிக்டோக் போன்ற தொழில்நுட்ப நிறுவனங்களை விசாரிப்பது அவரது நிறுவனத்திற்கு மிகவும் கடினமாக உள்ளது என்று முன்பு கூறியிருந்தார்.
ரெஜினா பல்கலைக்கழகத்தின் இணைப் பேராசிரியரும், செயற்கை நுண்ணறிவு, தரவு மற்றும் மோதல் மையத்தின் இணை இயக்குநருமான பிரையன் மெக்வின், 2022 ஆம் ஆண்டில் எலோன் மஸ்க் ட்விட்டரை X என மறுபெயரிட்டதிலிருந்து, தொழில்நுட்பத் துறை பொதுவாக உள் பாதுகாப்பு ஒழுங்குமுறைக்கு முன்னுரிமை அளித்துள்ளது.
“அடிப்படையில் (பிறகு) அந்த வகையான வேலைகளைச் செய்யும் அனைத்து அணிகளும் நீக்கப்பட்டன, பிற (சமூக ஊடக) நிறுவனங்களும் இதைப் பின்பற்றின, மேலும் அவர்களும் அதிலிருந்து தப்பிக்க முடியும் என்பதை உணர்ந்தனர்,” என்று அவர் கூறினார். “எனவே, உங்களிடம் குறைவான பணியாளர்கள் இருப்பீர்கள் மற்றும் உங்கள் சொந்த ஊழியர்களால் உங்களுக்கு விஷயங்களைச் சொல்வதால் ஏற்படும் தலைவலி குறைவாக இருக்கும்.
“உங்களுக்குத் தெரியாவிட்டால், நீங்கள் பொறுப்பேற்க முடியாது.”
டுஃப்ரெஸ்னேவின் அலுவலகம், மஸ்க்கிற்குச் சொந்தமான XAI மற்றும் அதன் க்ரோக் சாட்போட் மீது விசாரணையைத் தொடங்கியுள்ளது, இது X சமூக ஊடகத் தளத்தில் கட்டமைக்கப்பட்டுள்ளது, இது பெண்கள் மற்றும் குழந்தைகளின் சம்மதமற்ற பாலியல் ஆழமான போலிப் படங்களைப் பரப்ப உதவியது என்ற குற்றச்சாட்டின் பேரில். மற்ற நிறுவனங்கள் மற்றும் அமெரிக்க மாநிலங்களும் இதேபோன்ற விசாரணைகளை நடத்தி வருகின்றன.
மஸ்க் இந்த விசாரணையை பேச்சுரிமை மற்றும் கருத்துச் சுதந்திரத்தை நசுக்கும் முயற்சி என்று விமர்சித்துள்ளார்.
டொராண்டோவை தளமாகக் கொண்ட தனியுரிமை வழக்கறிஞரும் AI ஆளுமை உத்தியாளருமான Sharon Bauer, சாத்தியமான அச்சுறுத்தல்களை எச்சரிக்கும் கடமையுடன் தனிப்பட்ட தனியுரிமைக்கு இடையில் “நன்றாக சமநிலையை” ஏற்படுத்துவது எதிர்கால சட்டம் அல்லது ஒழுங்குமுறைக்கு முக்கியமானது என்றார்.
“உடனடி” என்ற வார்த்தை முக்கியமானது என்றார்.
“இது மிகவும் முக்கியமான வரம்பு, ஏனென்றால் அந்த வரம்பைக் காட்டிலும் குறைவானது, மக்களைக் களங்கப்படுத்தக்கூடிய அல்லது தவறான நேர்மறைகளை உருவாக்கக்கூடிய விஷயங்களை சட்ட அமலாக்கத்திற்கு அறிவிக்கும், இது நிச்சயமாக அந்த நபர்களுக்கு தீங்கு விளைவிக்கும்,” என்று அவர் கூறினார்.
அதே நேரத்தில், பாயர் கூறினார், “அதிகமாக எதுவும் உண்மையான ஆபத்துகளை இழக்க நேரிடும், இது இந்த சூழ்நிலையில் இருக்கலாம்.”
“அவர்கள் ஏன் சட்ட அமலாக்கத்தைத் தொடர்பு கொள்ளவில்லை என்பது பற்றிய அவர்களின் காரணத்தை ஆவணப்படுத்தினால், அதைப் பற்றிய பதில்களைப் பெறுவோம் என்று நான் நம்புகிறேன், மேலும் அவர்கள் சரியான முடிவை எடுத்தார்களா என்பதை பகுப்பாய்வு செய்து கண்டுபிடிப்பது மிகவும் முக்கியம்,” என்று அவர் கூறினார்.
AI சாட்போட்கள் மற்றும் சமூக ஊடக தளங்களில் இருந்து தங்களை அல்லது மற்றவர்களுக்கு தீங்கு விளைவிப்பதாக அச்சுறுத்தியதற்காக யார் வெளியேற்றப்பட்டார்கள் என்பதையும், அந்த நபர்கள் மீது ஏதேனும் நிஜ உலகில் பின்தொடர்தல் உள்ளதா என்பதையும் பார்க்க விரும்புவதாக McQuinn கூறினார்.
“இல்லை என்று பதில் இருந்தால், அவர்கள் மணலில் தலையை வைக்கிறார்கள்,” என்று அவர் கூறினார்.
“இந்த நிறுவனங்கள் டிரில்லியன் கணக்கான டாலர்கள் மதிப்புடையவை, எனவே பணியாளர்கள் மற்றும் பாதுகாப்பு தொடர்பான எதற்கும் அவர்கள் செலவிடும் பணத்தின் அளவு மிகக் குறைவு.”
கனடாவின் வரவிருக்கும் AI மூலோபாயம் இந்த முக்கியமான கேள்விகளுக்கு பதிலளிக்கும் வலுவான பாதுகாப்பு நெறிமுறைகளுடன் பொருளாதார நன்மைகள் மற்றும் தத்தெடுப்பு உத்திகளை இணைக்க வேண்டும் என்று அவர் கூறினார்.
Paquin சமீபத்திய கலிபோர்னியா சட்டத்தை மேற்கோள் காட்டினார், OpenAI போன்ற பெரிய AI நிறுவனங்கள் தங்கள் தளங்கள் சாத்தியமான “கெட்ட” நடவடிக்கைகளுக்குப் பயன்படுத்தப்படும் நிகழ்வுகளை மாநிலத்திற்கு தெரிவிக்க வேண்டும், கனடா அதன் சொந்த சாத்தியமான ஒழுங்குமுறையை மாதிரியாகக் கொள்ள வேண்டும்.
இருப்பினும், அந்தச் சட்டம் பேரழிவு அபாயத்தை குறைந்தபட்சம் $1 பில்லியன் சேதம் அல்லது 50 க்கும் மேற்பட்ட காயங்கள் அல்லது இறப்புகளை ஏற்படுத்தும் என்று வரையறுக்கிறது.
ஆந்த்ரோபிக் போன்ற சில AI நிறுவனங்களால் தொடர்ந்து “புதுமைகளை” அனுமதிப்பதன் மூலம் பொது பாதுகாப்பை சமநிலைப்படுத்துவதற்காக இந்த சட்டம் பாராட்டப்பட்டது.
“நாங்கள் அதிக வெளிப்படைத்தன்மையைக் கோர வேண்டும், மேலும் அந்த நடவடிக்கைகளின் வெளிப்புற மேற்பார்வைக்கான வழிகளைப் பற்றியும் சிந்திக்க வேண்டும், ஏனென்றால் AI டெவலப்பர்களை எங்கள் நீதிபதியாக, எங்கள் சொந்த பாதுகாப்பின் நீதிபதியாக இருக்க அனுமதிக்க முடியாது,” என்று பாக்வின் கூறினார்.
குளோபலின் துரியா இஸ்ரியின் கோப்புகளுடன்

