1. புரோகிராமிங் பிக் டேட்டாடேட்டா சயின்ஸ் சென்டிமென்ட் பகுப்பாய்விற்கான AI ஐப் பயன்படுத்துதல்

எழுதியவர் ஜான் பால் முல்லர், லூகா முல்லர்

சென்டிமென்ட் பகுப்பாய்வு கணக்கீட்டு ரீதியாக எழுத்தாளரின் அணுகுமுறையைப் பயன்படுத்தி (நேர்மறை, எதிர்மறை அல்லது நடுநிலையானதாக இருந்தாலும்) உரை தலைப்பை நோக்கி எழுதப்பட்ட உரையிலிருந்து பெறப்படுகிறது. இந்த வகையான பகுப்பாய்வு சந்தைப்படுத்தல் மற்றும் தகவல்தொடர்புகளில் பணிபுரியும் மக்களுக்கு பயனுள்ளதாக இருப்பதை நிரூபிக்கிறது, ஏனெனில் வாடிக்கையாளர்கள் மற்றும் நுகர்வோர் ஒரு தயாரிப்பு அல்லது சேவையைப் பற்றி என்ன நினைக்கிறார்கள் என்பதைப் புரிந்துகொள்ள இது உதவுகிறது, இதனால், சரியான முறையில் செயல்படுங்கள் (உதாரணமாக, திருப்தியடையாத வாடிக்கையாளர்களை மீட்டெடுக்க முயற்சிப்பது அல்லது வேறு விற்பனை மூலோபாயத்தைப் பயன்படுத்த முடிவு செய்வது ). எல்லோரும் உணர்வு பகுப்பாய்வு செய்கிறார்கள். உதாரணமாக, உரையைப் படிக்கும்போது, ​​மக்கள் அதை எழுதிய நபரை நகர்த்திய உணர்வைத் தீர்மானிக்க இயல்பாகவே முயற்சி செய்கிறார்கள். இருப்பினும், படிக்கவும் புரிந்துகொள்ளவும் நூல்களின் எண்ணிக்கை மிகப் பெரியதாக இருக்கும்போது, ​​சமூக ஊடகங்கள் மற்றும் வாடிக்கையாளர் மின்னஞ்சல்களைப் போலவே உரை தொடர்ந்து குவிந்து கொண்டிருக்கும் போது, ​​உணர்வு பகுப்பாய்வை தானியக்கமாக்குவது முக்கியம்.

AI உணர்வு பகுப்பாய்வு

வரவிருக்கும் எடுத்துக்காட்டு கெராஸ் மற்றும் டென்சர்ஃப்ளோவைப் பயன்படுத்தி ஆர்.என்.என்-களின் சோதனை ஓட்டமாகும், இது ஒரு திரைப்பட மதிப்பாய்வில் வெளிப்படுத்தப்பட்ட அணுகுமுறைகளை வகைப்படுத்தக்கூடிய ஒரு உணர்வு பகுப்பாய்வு வழிமுறையை உருவாக்குகிறது. தரவு என்பது ஐஎம்டிபி தரவுத்தொகுப்பின் ஒரு மாதிரியாகும், இது 50,000 மதிப்புரைகளை (ரயில் மற்றும் சோதனை பெட்டிகளுக்கு இடையில் பாதியாகப் பிரிக்கப்படுகிறது) திரைப்படங்களுடன் மதிப்பாய்வின் உணர்வை வெளிப்படுத்தும் லேபிளுடன் (0 = எதிர்மறை, 1 = நேர்மறை) உள்ளது. IMDb என்பது திரைப்படங்கள், டிவி தொடர்கள் மற்றும் வீடியோ கேம்கள் பற்றிய தகவல்களைக் கொண்ட ஒரு பெரிய ஆன்லைன் தரவுத்தளமாகும். முதலில் ரசிகர் பட்டாளத்தால் பராமரிக்கப்படுகிறது, இது இப்போது அமேசான் துணை நிறுவனத்தால் இயக்கப்படுகிறது. IMDb இல், மக்கள் தங்களுக்குப் பிடித்த நிகழ்ச்சியைப் பற்றித் தேவையான தகவல்களைக் கண்டுபிடிப்பதோடு, தங்கள் கருத்துக்களை இடுகையிடவும் அல்லது பிற பார்வையாளர்கள் படிக்க ஒரு மதிப்புரையை எழுதவும் செய்கிறார்கள்.

ஐஎம்டிபி தரவுகளுக்காக தரவிறக்கம் செய்யக்கூடிய ரேப்பரை கெராஸ் வழங்குகிறது. இந்தத் தரவை ஒரு ரயில் மற்றும் சோதனைத் தொகுப்பாக நீங்கள் தயார் செய்கிறீர்கள், கலக்குகிறீர்கள். குறிப்பாக, கெராஸ் வழங்கும் ஐஎம்டிபி உரை தரவு நிறுத்தற்குறியில் இருந்து சுத்தப்படுத்தப்பட்டு, சிறிய எழுத்துக்களாக இயல்பாக்கப்பட்டு, எண் மதிப்புகளாக மாற்றப்படுகிறது. ஒவ்வொரு வார்த்தையும் அதன் தரவரிசையை அதிர்வெண்ணில் குறிக்கும் எண்ணாக குறியிடப்படுகிறது. பெரும்பாலான அடிக்கடி சொற்கள் குறைந்த எண்ணிக்கையைக் கொண்டுள்ளன; குறைவான அடிக்கடி சொற்கள் அதிக எண்களைக் கொண்டுள்ளன.

ஒரு ஸ்டார்டர் புள்ளியாக, குறியீடு கெராஸிலிருந்து imdb செயல்பாட்டை இறக்குமதி செய்கிறது மற்றும் இணையத்திலிருந்து தரவை மீட்டெடுக்க அதைப் பயன்படுத்துகிறது (சுமார் 17.5MB பதிவிறக்கம்). எடுத்துக்காட்டு பயன்படுத்தும் அளவுருக்கள் முதல் 10,000 சொற்களை உள்ளடக்கியது, மேலும் கெராஸ் ஒரு குறிப்பிட்ட சீரற்ற விதைகளைப் பயன்படுத்தி தரவை மாற்ற வேண்டும். .

keras.datasets இறக்குமதி imdb இலிருந்து
top_words = 10000
((x_train, y_train),
(x_test, y_test)) = imdb.load_data (num_words = top_words,
விதை = 21)

முந்தைய குறியீடு முடிந்ததும், பின்வரும் குறியீட்டைப் பயன்படுத்தி எடுத்துக்காட்டுகளின் எண்ணிக்கையை நீங்கள் சரிபார்க்கலாம்:

அச்சு ("பயிற்சி எடுத்துக்காட்டுகள்:% i"% லென் (x_train))
அச்சு ("சோதனை எடுத்துக்காட்டுகள்:% i"% லென் (x_test))

நரம்பியல் வலையமைப்பின் பயிற்சி மற்றும் சோதனை கட்டத்தில் பயன்படுத்த கிடைக்கக்கூடிய வழக்குகளின் எண்ணிக்கையைப் பற்றி விசாரித்தபின், குறியீடு ஒவ்வொரு கட்டத்திற்கும் 25,000 எடுத்துக்காட்டுகளின் பதிலை வெளியிடுகிறது. (இந்த தரவுத்தொகுப்பு ஒரு மொழி சிக்கலுக்கு ஒப்பீட்டளவில் சிறியது; தெளிவாக தரவுத்தொகுப்பு முக்கியமாக ஆர்ப்பாட்ட நோக்கங்களுக்காக.) கூடுதலாக, தரவுத்தொகுப்பு சமநிலையானதா என்பதை குறியீடு தீர்மானிக்கிறது, அதாவது இது கிட்டத்தட்ட சமமான நேர்மறை மற்றும் எதிர்மறை உணர்வு உதாரணங்களைக் கொண்டுள்ளது.

நம்பியை np ஆக இறக்குமதி செய்க
அச்சிடு (np.unique (y_train, return_counts = true))

இதன் விளைவாக, வரிசை ([12500, 12500]), தரவுத்தொகுப்பு நேர்மறை மற்றும் எதிர்மறை விளைவுகளுக்கு இடையில் சமமாகப் பிரிக்கப்படுவதை உறுதிப்படுத்துகிறது. தரவுத்தொகுப்பின் நிரூபண இயல்பு காரணமாக மறுமொழி வகுப்புகளுக்கு இடையில் இத்தகைய சமநிலை பிரத்தியேகமாக உள்ளது. உண்மையான உலகில், நீங்கள் எப்போதாவது சீரான தரவுத்தொகுப்புகளைக் காணலாம். அடுத்த படி தரவுத்தொகுப்பில் பயன்படுத்தப்படும் குறியீடு மற்றும் உண்மையான சொற்களுக்கு இடையில் மாற்றக்கூடிய சில பைதான் அகராதிகளை உருவாக்குகிறது. உண்மையில், இந்த எடுத்துக்காட்டில் பயன்படுத்தப்படும் தரவுத்தொகுப்பு முன்கூட்டியே செயலாக்கப்பட்டு, சொற்களைக் குறிக்கும் எண்களின் வரிசைகளை வழங்குகிறது, சொற்கள் அல்ல. (கெராஸில் நீங்கள் காணும் எல்.எஸ்.டி.எம் மற்றும் ஜி.ஆர்.யூ வழிமுறைகள் எண்களின் வரிசைகளை எண்களாக எதிர்பார்க்கின்றன.)

word_to_id = {w: w க்கு i + 3, நான் imdb.get_word_index () இல். உருப்படிகள் ()}
id_to_word = {0: '<பேட்>', 1: '<ஆனது START>', 2: ''}
id_to_word.update (w i + 3: w க்கு w, i imdb.get_word_index () இல். உருப்படிகள் ()})
def convert_to_text (வரிசை):
திரும்பவும் ''. சேரவும் (s> = 3] என்றால் வரிசையில் வரிசையில் [id_to_word [கள்])
அச்சிட (convert_to_text (x_train [8]))

முந்தைய குறியீடு துணுக்கை இரண்டு மாற்று அகராதிகள் (சொற்களிலிருந்து எண் குறியீடுகள் மற்றும் நேர்மாறாக) வரையறுக்கிறது மற்றும் தரவுத்தொகுப்பு எடுத்துக்காட்டுகளை படிக்கக்கூடிய உரையாக மொழிபெயர்க்கும் ஒரு செயல்பாடு. ஒரு எடுத்துக்காட்டுக்கு, குறியீடு ஒன்பதாவது உதாரணத்தை அச்சிடுகிறது: “இந்த படம் ஒரு மோசமான ரயில் விபத்து போல இருந்தது, அது போலவே பயங்கரமானது…”. இந்த பகுதியிலிருந்து, இந்த திரைப்படத்திற்கான உணர்வு நேர்மறையானதல்ல என்பதை நீங்கள் எளிதாக எதிர்பார்க்கலாம். மோசமான, அழிவு மற்றும் பயங்கரமான சொற்கள் ஒரு வலுவான எதிர்மறை உணர்வை வெளிப்படுத்துகின்றன, மேலும் இது சரியான உணர்வை யூகிக்க எளிதாக்குகிறது.

இந்த எடுத்துக்காட்டில், நீங்கள் எண் காட்சிகளைப் பெற்று அவற்றை மீண்டும் சொற்களாக மாற்றுகிறீர்கள், ஆனால் எதிர்மாறானது பொதுவானது. வழக்கமாக, நீங்கள் சொற்களால் ஆன சொற்றொடர்களைப் பெற்று, அவற்றை RNN களின் ஒரு அடுக்குக்கு உணவளிக்க முழு எண்களின் வரிசைகளாக மாற்றுகிறீர்கள். கெராஸ் ஒரு சிறப்பு செயல்பாட்டை வழங்குகிறது, டோக்கனைசர் உங்களுக்காக அதை செய்ய முடியும். பயிற்சி தரவுகளிலிருந்து முழு எண்களுக்கு சொற்களை எவ்வாறு வரைபடமாக்குவது என்பதை அறிய, மற்றும் உரைகளை ஒரு வரிசையாக மாற்ற, இது_படிகள்_தொகுப்புகளை பயன்படுத்துகிறது.

இருப்பினும், பிற சொற்றொடர்களில், உணர்வு பகுப்பாய்விற்கான இதுபோன்ற வெளிப்படுத்தும் சொற்களை நீங்கள் காண முடியாது. உணர்வு மிகவும் நுட்பமான அல்லது மறைமுகமான முறையில் வெளிப்படுத்தப்படுகிறது, மேலும் உரையின் ஆரம்பத்தில் உணர்வைப் புரிந்துகொள்வது சாத்தியமில்லை, ஏனெனில் சொற்றொடர்களையும் சொற்களையும் வெளிப்படுத்துவது சொற்பொழிவில் பின்னர் தோன்றக்கூடும். இந்த காரணத்திற்காக, நீங்கள் எவ்வளவு சொற்றொடரை பகுப்பாய்வு செய்ய விரும்புகிறீர்கள் என்பதையும் நீங்கள் தீர்மானிக்க வேண்டும்.

வழக்கமாக, நீங்கள் உரையின் ஆரம்ப பகுதியை எடுத்து முழு மதிப்பாய்வின் பிரதிநிதியாகப் பயன்படுத்துகிறீர்கள். சில நேரங்களில் உங்களுக்கு சில ஆரம்ப சொற்கள் தேவை - உதாரணமாக முதல் 50 சொற்கள் - உணர்வைப் பெற; சில நேரங்களில் உங்களுக்கு இன்னும் தேவை. குறிப்பாக நீண்ட நூல்கள் அவற்றின் நோக்குநிலையை ஆரம்பத்தில் வெளிப்படுத்தாது. ஆகவே, நீங்கள் பணிபுரியும் உரையின் வகையைப் புரிந்துகொள்வதும், ஆழ்ந்த கற்றலைப் பயன்படுத்தி எத்தனை சொற்களை பகுப்பாய்வு செய்வது என்பதை தீர்மானிப்பதும் உங்களுடையது. இந்த எடுத்துக்காட்டு முதல் 200 சொற்களை மட்டுமே கருதுகிறது, இது போதுமானதாக இருக்க வேண்டும்.

குறியீடு எண் 3 இல் தொடங்கி சொற்களுக்கு குறியீட்டைக் கொடுக்கத் தொடங்குகிறது என்பதை நீங்கள் கவனித்திருக்கிறீர்கள், இதனால் 0 முதல் 2 வரையிலான குறியீடுகளை விட்டுவிடுகிறது. சொற்றொடரின் தொடக்கத்தை சமிக்ஞை செய்வது, வரிசையை சரிசெய்ய வெற்று இடங்களை நிரப்புதல் போன்ற சிறப்பு குறிச்சொற்களுக்கு குறைந்த எண்கள் பயன்படுத்தப்படுகின்றன. ஒரு குறிப்பிட்ட நீளத்தில், மற்றும் விலக்கப்பட்ட சொற்களைக் குறிப்பதால் அவை போதுமான அளவு அடிக்கடி இல்லை. இந்த எடுத்துக்காட்டு மிகவும் அடிக்கடி 10,000 சொற்களை மட்டுமே எடுக்கும். தொடக்க, முடிவு மற்றும் குறிப்பிடத்தக்க சூழ்நிலைகளை சுட்டிக்காட்ட குறிச்சொற்களைப் பயன்படுத்துவது RNN களுடன் செயல்படும் ஒரு தந்திரமாகும், குறிப்பாக இயந்திர மொழிபெயர்ப்புக்கு.

keras.preprocessing.afterence இறக்குமதி pad_afteences இலிருந்து
max_pad = 200
x_train = pad_afteences (x_train,
maxlen = max_pad)
x_test = pad_afteences (x_test,
maxlen = max_pad)
அச்சு (x_train [0])

மேரஸ்_பேட் 200 உடன் அமைக்கப்பட்ட கெராஸிலிருந்து பேட்_பிக்சன்ஸ் செயல்பாட்டைப் பயன்படுத்துவதன் மூலம், குறியீடு ஒவ்வொரு மதிப்பாய்வின் முதல் இருநூறு சொற்களை எடுக்கும். மதிப்பாய்வில் இருநூறுக்கும் குறைவான சொற்கள் இருந்தால், தேவையான பல பூஜ்ஜிய மதிப்புகள் தேவையான வரிசை கூறுகளின் எண்ணிக்கையை அடைய வரிசைக்கு முந்தியிருக்கும். ஒரு குறிப்பிட்ட நீளத்திற்கு வரிசைகளை வெட்டுவது மற்றும் பூஜ்ஜிய மதிப்புகளுடன் வெற்றிடங்களை நிரப்புவது உள்ளீட்டு திணிப்பு என அழைக்கப்படுகிறது, இது ஆழ்ந்த கற்றல் வழிமுறைகள் போன்ற RNN களைப் பயன்படுத்தும் போது ஒரு முக்கியமான செயலாக்க செயல்பாடு. இப்போது குறியீடு கட்டமைப்பை வடிவமைக்கிறது:

keras.models இலிருந்து இறக்குமதி தொடர்
keras.layers இலிருந்து இருதிசை, அடர்த்தியான, டிராபவுட் இறக்குமதி
keras.layers இலிருந்து GlobalMaxPool1D, LSTM ஐ இறக்குமதி செய்க
keras.layers.embeddings இலிருந்து உட்பொதித்தல்
உட்பொதித்தல்_வெக்டர்_நீளம் = 32
மாதிரி = வரிசை ()
model.add (உட்பொதித்தல் (top_words,
embedding_vector_length,
input_length = max_pad))
model.add (இருதரப்பு (LSTM (64, return_afteences = உண்மை)))
model.add (GlobalMaxPool1D ())
model.add (அடர்த்தியான (16, செயல்படுத்தல் = "ரெலு"))
model.add (அடர்த்தியான (1, செயல்படுத்தல் = "சிக்மாய்டு"))
model.compile (இழப்பு = 'binary_crossentropy',
ஆப்டிமைசர் = 'ஆடம்',
மெட்ரிக்ஸ் = [ 'துல்லியத்தன்மை'])
அச்சு (model.summary ())

முந்தைய குறியீடு துணுக்கை ஆழமான கற்றல் மாதிரியின் வடிவத்தை வரையறுக்கிறது, அங்கு கெராஸிலிருந்து இயற்கையான மொழி செயலாக்கத்திற்கு சில சிறப்பு அடுக்குகளைப் பயன்படுத்துகிறது. வெவ்வேறு நரம்பியல் அடுக்குகளைப் பயன்படுத்துவதன் மூலம் கட்டிடக்கலையில் என்ன நடக்கிறது என்பதைத் தீர்மானிக்க மாதிரியின் சுருக்கம் (model.summary () கட்டளை) எடுத்துக்காட்டுக்கு தேவைப்படுகிறது.

உங்களிடம் உட்பொதித்தல் அடுக்கு உள்ளது, இது எண் காட்சிகளை அடர்த்தியான சொல் உட்பொதிப்பாக மாற்றுகிறது. அந்த வகை சொல் உட்பொதித்தல் RNN களின் ஒரு அடுக்கு மூலம் கற்றுக்கொள்ள மிகவும் பொருத்தமானது. கெராஸ் ஒரு உட்பொதித்தல் அடுக்கை வழங்குகிறது, இது நெட்வொர்க்கின் முதல் அடுக்காக இருக்க வேண்டும் என்பதைத் தவிர, இரண்டு பணிகளைச் செய்ய முடியும்:

  • முன்கூட்டியே உள்ளீடு உட்பொதிப்புக்கு (வேர்ட் 2 வெக் அல்லது க்ளோவ் போன்றவை) முன் பயிற்சி பெற்ற சொல் உட்பொதித்தல். உட்பொதித்தல் கொண்ட மேட்ரிக்ஸை அதன் அளவுரு எடைகளுக்கு அனுப்ப வேண்டும். புதிதாக ஒரு வார்த்தையை உட்பொதித்தல், அது பெறும் உள்ளீடுகளின் அடிப்படையில்.

இந்த இரண்டாவது வழக்கில், உட்பொதித்தல் தெரிந்து கொள்ள வேண்டியது:

  • input_dim: தரவிலிருந்து எதிர்பார்க்கப்படும் சொற்களஞ்சியத்தின் அளவு output_dim: உற்பத்தி செய்யப்படும் உட்பொதித்தல் இடத்தின் அளவு (பரிமாணங்கள் என்று அழைக்கப்படுபவை) input_length: எதிர்பார்க்க வேண்டிய வரிசை அளவு

நீங்கள் அளவுருக்களைத் தீர்மானித்த பிறகு, பயிற்சியின் போது காட்சிகளை அடர்த்தியான மேட்ரிக்ஸாக மாற்றுவதற்கான சிறந்த எடைகளை உட்பொதித்தல் கண்டுபிடிக்கும். அடர்த்தியான மேட்ரிக்ஸ் அளவு வரிசைகளின் நீளம் மற்றும் உட்பொதிப்பின் பரிமாணத்தால் வழங்கப்படுகிறது.

கெராஸ் வழங்கிய உட்பொதித்தல் அடுக்கைப் பயன்படுத்தினால், இந்த செயல்பாடு விரும்பிய உட்பொதிப்பின் பரிமாணத்தால் சொற்களஞ்சியத்தின் அளவின் எடை மேட்ரிக்ஸை மட்டுமே வழங்குகிறது என்பதை நினைவில் கொள்ள வேண்டும். இது மேட்ரிக்ஸின் நெடுவரிசைகளுக்கு சொற்களை வரைபடமாக்குகிறது, பின்னர் வழங்கப்பட்ட எடுத்துக்காட்டுகளுக்கு மேட்ரிக்ஸ் எடையை டியூன் செய்கிறது. இந்த தீர்வு, தரமற்ற மொழி சிக்கல்களுக்கு நடைமுறைக்குரியது என்றாலும், முன்னர் விவாதிக்கப்பட்ட உட்பொதிப்புகள் என்ற வார்த்தையுடன் ஒத்ததாக இல்லை, அவை வேறு வழியில் மற்றும் மில்லியன் கணக்கான எடுத்துக்காட்டுகளில் பயிற்சியளிக்கப்படுகின்றன.

எடுத்துக்காட்டு இருதரப்பு மடக்குதலைப் பயன்படுத்துகிறது - 64 கலங்களின் எல்எஸ்டிஎம் அடுக்கு. இருதரப்பு ஒரு சாதாரண எல்எஸ்டிஎம் லேயரை இரட்டிப்பாக்குவதன் மூலம் மாற்றுகிறது: முதல் பக்கத்தில், நீங்கள் வழங்கும் உள்ளீடுகளின் இயல்பான வரிசையை இது பயன்படுத்துகிறது; இரண்டாவது, இது வரிசையின் தலைகீழ் கடந்து செல்கிறது. நீங்கள் இந்த அணுகுமுறையைப் பயன்படுத்துகிறீர்கள், ஏனென்றால் சில சமயங்களில் நீங்கள் சொற்களை வேறுபட்ட வரிசையில் பயன்படுத்துகிறீர்கள், மேலும் இருதரப்பு அடுக்கை உருவாக்குவது எந்த வார்த்தையையும் பொருட்படுத்தாது. கெராஸ் செயல்படுத்தல் உண்மையில் நேரடியானது: நீங்கள் இருதரப்பிலும் வழங்க விரும்பும் அடுக்கில் ஒரு செயல்பாடாக இதைப் பயன்படுத்துகிறீர்கள்.

இருதிசை எல்எஸ்டிஎம் காட்சிகளைத் திரும்ப அமைக்கப்படுகிறது (return_afteences = உண்மை); அதாவது, ஒவ்வொரு கலத்திற்கும், இது வரிசையின் ஒவ்வொரு உறுப்புகளையும் பார்த்த பிறகு வழங்கப்பட்ட முடிவை வழங்குகிறது. முடிவுகள், ஒவ்வொரு வரிசைக்கும், 200 x 128 இன் வெளியீட்டு அணி, இங்கு 200 என்பது வரிசை கூறுகளின் எண்ணிக்கை மற்றும் 128 என்பது அடுக்கில் பயன்படுத்தப்படும் எல்எஸ்டிஎம் கலங்களின் எண்ணிக்கை. இந்த நுட்பம் ஒவ்வொரு எல்.எஸ்.டி.எம் கலத்தின் கடைசி முடிவையும் ஆர்.என்.என் தடுக்கிறது. உரையின் உணர்வைப் பற்றிய குறிப்புகள் உண்மையில் உட்பொதிக்கப்பட்ட சொற்களின் வரிசையில் எங்கும் தோன்றும்.

சுருக்கமாக, ஒவ்வொரு கலத்தின் கடைசி முடிவையும் எடுக்காமல் இருப்பது முக்கியம், மாறாக அதன் சிறந்த முடிவு. எனவே ஒவ்வொரு எல்எஸ்டிஎம் கலமும் வழங்கிய முடிவுகளின் ஒவ்வொரு வரிசையையும் சரிபார்த்து அதிகபட்ச முடிவை மட்டுமே தக்க வைத்துக் கொள்ள பின்வரும் குறியீடான குளோபல்மேக்ஸ் பூல் 1 டி ஐ குறியீடு நம்பியுள்ளது. உதாரணம் ஒவ்வொரு எல்எஸ்டிஎம் கலத்திலிருந்தும் வலுவான சமிக்ஞையைத் தேர்ந்தெடுப்பதை உறுதி செய்ய வேண்டும், இது சில அர்த்தமுள்ள சமிக்ஞைகளைத் தேர்ந்தெடுப்பதற்கான அதன் பயிற்சியால் நிபுணத்துவம் பெற்றது.

நரம்பியல் சமிக்ஞைகள் வடிகட்டப்பட்ட பிறகு, எடுத்துக்காட்டில் 128 வெளியீடுகளின் அடுக்கு உள்ளது, ஒவ்வொரு எல்எஸ்டிஎம் கலத்திற்கும் ஒன்று. குறியீடு 16 நியூரான்களின் தொடர்ச்சியான அடர்த்தியான அடுக்கைப் பயன்படுத்தி சிக்னல்களைக் குறைத்து கலக்கிறது (இதனால் நேர்மறையான சமிக்ஞைகள் மட்டுமே கடந்து செல்கின்றன). சிக்மாய்டு செயல்பாட்டைப் பயன்படுத்தி கட்டமைப்பு ஒரு இறுதி முனையுடன் முடிவடைகிறது, இது முடிவுகளை 0–1 வரம்பில் கசக்கி, அவை நிகழ்தகவுகள் போல தோற்றமளிக்கும்.

கட்டமைப்பை வரையறுத்து, இப்போது நீங்கள் சென்டிமென்ட் பகுப்பாய்வு செய்ய நெட்வொர்க்கைப் பயிற்றுவிக்கலாம். மூன்று சகாப்தங்கள் (தரவுகளைக் கற்றுக்கொள்வதற்கு பிணையத்தின் வழியாக தரவை மூன்று முறை கடந்து செல்வது) போதுமானதாக இருக்கும். குறியீடு ஒவ்வொரு முறையும் 256 மதிப்புரைகளின் தொகுப்புகளைப் பயன்படுத்துகிறது, இது ஒவ்வொரு முறையும் அதன் எடையை பேக்ரோபாகேஷனைப் பயன்படுத்தி புதுப்பிக்குமுன் போதுமான அளவு சொற்களையும் உணர்வுகளையும் நெட்வொர்க்கைக் காண அனுமதிக்கிறது. இறுதியாக, சரிபார்ப்பு தரவு வழங்கிய முடிவுகளில் குறியீடு கவனம் செலுத்துகிறது (இது பயிற்சி தரவின் பகுதியாக இல்லை). சரிபார்ப்பு தரவிலிருந்து ஒரு நல்ல முடிவைப் பெறுவது என்பது நரம்பியல் வலை உள்ளீட்டை சரியாக செயலாக்குகிறது என்பதாகும். ஒவ்வொரு சகாப்தமும் முடிந்தபிறகு சரிபார்ப்பு தரவு குறித்த குறியீடு அறிக்கைகள்.

வரலாறு = model.fit (x_train, y_train,
validation_data = (x_test, y_test),
சகாப்தங்கள் = 3, தொகுதி_ அளவு = 256)

முடிவுகளைப் பெறுவதற்கு சிறிது நேரம் ஆகும், ஆனால் நீங்கள் ஒரு ஜி.பீ.யைப் பயன்படுத்துகிறீர்கள் என்றால், நீங்கள் ஒரு கப் காபி குடிக்க எடுக்கும் நேரத்தில் அது முடிவடையும். இந்த கட்டத்தில், சரிபார்ப்பு தரவைப் பயன்படுத்தி மீண்டும் முடிவுகளை மதிப்பீடு செய்யலாம். (முடிவுகளுக்கு பயிற்சியின் போது அறிவிக்கப்பட்ட குறியீட்டிலிருந்து எந்த ஆச்சரியங்களும் வேறுபாடுகளும் இருக்கக்கூடாது.)

இழப்பு, மெட்ரிக் = model.evaluate (x_test, y_test, verbose = 0)
அச்சு ("சோதனை துல்லியம்:% 0.3f"% மெட்ரிக்)

இறுதி துல்லியம், இது ஆழமான நரம்பியல் வலையமைப்பிலிருந்து சரியான பதில்களின் சதவீதமாகும், இது சுமார் 85—86 சதவிகிதமாக இருக்கும். உங்கள் நரம்பியல் வலையமைப்பை உருவாக்கும்போது சீரற்றமயமாக்கல் காரணமாக நீங்கள் சோதனையை இயக்கும் ஒவ்வொரு முறையும் இதன் விளைவாக சற்று மாறும். நீங்கள் பணிபுரியும் தரவின் சிறிய அளவைக் கொண்டு இது மிகவும் சாதாரணமானது. சரியான அதிர்ஷ்ட எடையுடன் நீங்கள் தொடங்கினால், அத்தகைய குறுகிய பயிற்சியில் கற்றல் எளிதாக இருக்கும்.

முடிவில், உங்கள் நெட்வொர்க் ஒரு சென்டிமென்ட் அனலைசர் ஆகும், இது ஒரு திரைப்பட மதிப்பாய்வில் 85 சதவிகித நேரத்தை சரியாக வெளிப்படுத்தக்கூடிய உணர்வை யூகிக்க முடியும். இன்னும் கூடுதலான பயிற்சி தரவு மற்றும் அதிநவீன நரம்பியல் கட்டமைப்புகள் ஆகியவற்றைக் கொண்டு, நீங்கள் இன்னும் சுவாரஸ்யமான முடிவுகளைப் பெறலாம். மார்க்கெட்டில், உரையைப் படிப்பதற்கும் நடவடிக்கை எடுப்பதற்கும் தேவைப்படும் பல செயல்முறைகளை தானியக்கமாக்க இதே போன்ற கருவி பயன்படுத்தப்படுகிறது. மீண்டும், இது போன்ற ஒரு நெட்வொர்க்கை ஒரு நரம்பியல் பிணையத்துடன் இணைக்க முடியும், அது ஒரு குரலைக் கேட்டு உரையாக மாற்றும். .

மேலும் காண்க

உங்கள் பேண்டஸி கால்பந்து பட்டியலை எவ்வாறு நிரப்புவதுகெட்டோ ஃப்ளூகெட்டோ இனிப்பு செய்முறைக்கான அறிகுறிகள் மற்றும் தீர்வுகள்: கிரீமி குக்கீ மாவை மவுஸ் கெட்டோ காலை உணவு செய்முறை: வெண்ணெய் கிளவுட் டோஸ்ட்கெட்டோ ஒன்-பாட் சாப்பாடு செய்முறை: மிருதுவான கால்கெட்டோ பசியின்மை கொண்ட ஸ்டீக் டெண்டர்லோயின்: மிருதுவான வேகவைத்த வெங்காயம் ரிங்ஸ் மற்றும் பிரவுஸ்ட்கிரிப்டோகரன்சி சுரங்க மற்றும் பங்கு வழிமுறைகளின் ஆதாரம்உங்கள் மேக்புக் தனியுரிமையைப் பாதுகாப்பது எப்படி: ஐடியூன்களுக்கான மாற்றீட்டை மீட் செய்யுங்கள்: மேகோஸ் கேடலினாவில் புதிய இசை மற்றும் டிவி பயன்பாடுகள் மேகோஸ் கேடலினாவுடன் புதியது என்ன? மேகோஸ் கேடலினாவை அமைப்பதற்கான விரைவான உதவிக்குறிப்புகள் மற்றும் டம்மிகளுக்கான உங்கள் மேக்புக் மேக் புத்தகத்தை பதிவுசெய்வது மேக்புக் ஏர் மற்றும் மேக்புக் ஏர் இடையே உங்கள் விண்டோஸ் கணினியில் உங்கள் மேக்டெஸ்ட் மைக்ரோஃபோனில் உள்ள கணக்குகள் விண்டோஸ் 10 இல் கோப்பு வரலாற்றிலிருந்து கோப்புகளை மீட்டெடுப்பது எப்படி உங்கள் விண்டோஸ் 10 கணினியில் பிணைய இயக்ககத்தை மேப்பிங் செய்தல்உங்கள் பிரேக் கோடுகளை எவ்வாறு சரிபார்க்கலாம் எப்படி ஒரு காரைத் தொடங்குவது உங்கள் வாகனத்திற்கு ஒரு ட்யூன் தேவையா என்பதைச் சொல்வது எப்படி வினையூக்கி மாற்றிகளை சரிசெய்வது எப்படி உங்கள் எண்ணெயை அடிக்கடி மாற்றுவது எப்படி? உங்கள் வாகனத்தின் எண்ணெய் அளவை எவ்வாறு சரிபார்க்க வேண்டும் உங்கள் வாகனத்தின் குளிரூட்டும் முறையை எவ்வாறு சுத்தப்படுத்துவது எப்படி ஒரு இயந்திரத்தை சரிசெய்வது எப்படி ஒரு டயர் மாற்ற எப்படி ஒரு தீப்பொறி செருகியை நிறுவுவது எப்படி பழைய தீப்பொறி செருகிகளை அகற்றுவது எப்படி வட்டு பிரேக்குகளை எவ்வாறு சரிபார்க்க வேண்டும் உங்கள் பிரேக் திரவத்தை எவ்வாறு மாற்றுவது உங்கள் பிரேக் சிஸ்டத்தின் மாஸ்டர் சிலிண்டரை எவ்வாறு சரிபார்க்க வேண்டும் ஒரு வாகனத்தின் பிரேக் திரவத்தை எவ்வாறு சரிபார்க்க வேண்டும் என் கார் அதிக வெப்பமடைவது ஏன் நான் என்ன செய்ய முடியும்? எப்படி பாதுகாப்பாக ஜாக் செய்வது? உங்கள் வாகனத்தை மேலே உங்கள் பிரேக் கோடுகளை எவ்வாறு சரிபார்க்கலாம்