DeepSeek R1 AI modelis įtariamas naudojantis Gemini duomenimis | Digin - Technologijų naujienos, apžvalgos ir tendencijos Lietuvoje
DeepSeek R1 AI modelis įtariamas naudojantis Gemini duomenimis

DeepSeek R1 AI modelis įtariamas naudojantis Gemini duomenimis

2025-06-04
0 Komentarai Jokūbas Žilinskas

2 Minutės

DeepSeek – sparčiai auganti dirbtinio intelekto startuolė – neseniai pristatė naująjį DI modelį R1, išsiskiriantį puikiais rezultatais matematiniame samprotavime bei programavimo užduotyse. Nepaisant to, kokie šaltiniai buvo naudojami R1 modelio mokymui, viešai neatskleista, todėl tarp dirbtinio intelekto tyrėjų kilo spėliojimų, ar dalis duomenų negalėjo būti paimta iš Google Gemini modelių.

Duomenų panaudojimo įtarimai Melburne gyvenantis kūrėjas Sam Peach, kuriantis DI modelių „emocinio intelekto“ vertinimus, teigia turintis įrodymų, kad DeepSeek R1-0528 modelis pasižymi polinkiu vartoti žodžius bei struktūras, būdingas Gemini 2.5 Pro. Socialiniame tinkle X Peach pažymėjo, kad R1-0528 DI modelis mėgsta tam tikrus kalbos šablonus, aptinkamus ir Gemini 2.5 Pro sistemoje. Nors Peach teiginiai nėra galutiniai įrodymai, kitas kūrėjas, žinomas kaip SpeechMap ir atliekantis „žodžio laisvės“ vertinimus dirbtinio intelekto modeliuose, pastebi, kad DeepSeek samprotavimo modeliai – ypač atsakymų paieškos procesai – daugeliu aspektų primena Google Gemini modelius.

Istorinis kontekstas ir ankstesni kaltinimai Tai ne pirmas kartas, kai DeepSeek susilaukia kaltinimų dėl modelių mokymo metodikų. Anksčiau kai kurie kūrėjai pastebėjo, jog DeepSeek V3 DI modelis dažnai prisistato kaip ChatGPT, o tai gali rodyti, jog mokymo duomenyse naudoti ChatGPT pokalbių logai. OpenAI yra išreiškusi nuomonę, kad DeepSeek greičiausiai taiko vadinamą „distiliacijos“ metodą – kai duomenys iš galingesnių modelių naudojami mažesnių modelių treniravimui ir tobulinimui.

Iššūkiai mokant DI modelius DI ekspertų bendruomenė pripažįsta, kad daugelis dirbtinio intelekto modelių gali netyčia supainioti savo tapatybę ar naudoti panašius kalbos šablonus, nes didžioji dalis treniravimo duomenų internete būna generuojama kitų DI sistemų. Tai sukuria kalbinio stiliaus ir elgsenos persidengimus, tad tampa sunku atskirti nepriklausomai kuriamus modelius nuo galimai kitų DI sprendimų paveiktų modelių.

Išvados Diskusijos apie DeepSeek R1 modelio duomenų šaltinius išryškina sudėtingus ir etinius klausimus, susijusius su DI modelių treniravimu. Plečiantis dirbtinio intelekto technologijoms, skaidrumas renkant ir naudojant treniravimo duomenis bei aiškios metodikos tampa vis svarbesnės bendruomenės pasitikėjimui užtikrinti. Nuolatinė priežiūra ir atviras dialogas būtini siekiant užtikrinti atsakingą DI technologijų vystymą.

Šaltinis: smarti

Esu Jokūbas – aistringas dirbtinio intelekto ir žaidimų pasaulio tyrinėtojas. Digin.lt dalinuosi naujienomis ir analizėmis, kurios padeda suprasti technologijų ateitį.

Komentarai

Palikite komentarą