Etikettering van data
Dit is deur 'n TIME-tydskrifondersoek aan die lig gebring dat OpenAI uitgekontrakteerde Keniaanse werkers wat minder as $2 per uur verdien, gebruik het om giftige inhoud te benoem om 'n veiligheidstelsel teen giftige inhoud te bou (bv. seksuele misbruik, geweld, rassisme, seksisme, ens.).Hierdie etikette is gebruik om 'n model op te lei om sulke inhoud in die toekoms op te spoor.Die uitgekontrakteerde arbeiders is aan sulke giftige en gevaarlike inhoud blootgestel dat hulle die ervaring as "marteling" beskryf het.OpenAI se uitkontrakteringsvennoot was Sama, 'n opleidingsdatamaatskappy in San Francisco, Kalifornië.
Jailbreaking
ChatGPT poog om versoeke te verwerp wat sy inhoudbeleid kan oortree.Sommige gebruikers het egter daarin geslaag om ChatGPT in die tronk te breek deur verskeie vinnige ingenieurstegnieke te gebruik om hierdie beperkings vroeg in Desember 2022 te omseil en het ChatGPT suksesvol mislei om instruksies te gee oor hoe om 'n Molotov-skemerkelkie of 'n kernbom te skep, of om argumente in die styl van 'n neo-Nazi te genereer.’n Toronto Star-verslaggewer het ongelyke persoonlike sukses behaal om ChatGPT kort ná bekendstelling opruiende stellings te kry: ChatGPT is mislei om die Russiese inval van 2022 in die Oekraïne te onderskryf, maar selfs toe hy gevra is om saam met ’n fiktiewe scenario te speel, het ChatGPT geweier om argumente te genereer waarom die Kanadese premier Justin Trudeau aan hoogverraad skuldig was.(wiki)
Postyd: 18 Februarie 2023