.
Embora alguns trabalhadores possam evitar a IA, a tentação de usá-la é muito real para outros. O campo pode ser “dog-eat-dog”, diz Bob, tornando atraentes as ferramentas que economizam mão-de-obra. Para encontrar os shows mais bem pagos, os crowd workers frequentemente usam scripts que sinalizam tarefas lucrativas, vasculham avaliações de solicitantes de tarefas ou se juntam a plataformas com melhores salários que examinam trabalhadores e solicitantes.
A CloudResearch começou a desenvolver um detector interno de ChatGPT no ano passado, depois que seus fundadores viram o potencial da tecnologia para minar seus negócios. O cofundador e CTO Jonathan Robinson diz que a ferramenta envolve a captura de teclas pressionadas, fazendo perguntas às quais o ChatGPT responde de maneira diferente das pessoas e conectando humanos para revisar respostas de texto de forma livre.
Outros argumentam que os pesquisadores devem assumir a responsabilidade de estabelecer confiança. Justin Sulik, um pesquisador de ciências cognitivas da Universidade de Munique que usa o CloudResearch para obter participantes, diz que a decência básica – pagamento justo e comunicação honesta – ajuda bastante. Se os funcionários acreditarem que ainda serão pagos, os solicitantes podem simplesmente perguntar no final de uma pesquisa se o participante usou o ChatGPT. “Acho que os funcionários on-line são injustamente culpados por fazer coisas que funcionários de escritório e acadêmicos podem fazer o tempo todo, o que apenas torna nossos próprios fluxos de trabalho mais eficientes”, diz Sulik.
Ali Alkhatib, um pesquisador de computação social, sugere que poderia ser mais produtivo considerar como trabalhadores mal pagos da multidão podem incentivar o uso de ferramentas como o ChatGPT. “Os pesquisadores precisam criar um ambiente que permita que os trabalhadores tenham tempo e sejam realmente contemplativos”, diz ele. Alkhatib cita o trabalho de pesquisadores de Stanford que desenvolveram uma linha de código que rastreia quanto tempo leva uma microtarefa, para que os solicitantes possam calcular como pagar um salário mínimo.
O design criativo do estudo também pode ajudar. Quando Sulik e seus colegas quiseram medir a ilusão de contingência, uma crença na relação causal entre eventos não relacionados, eles pediram aos participantes que movessem um mouse de desenho animado em torno de uma grade e então adivinhassem quais regras lhes renderiam o queijo. Aqueles propensos à ilusão escolheram regras mais hipotéticas. Parte da intenção do projeto era manter as coisas interessantes, diz Sulik, para que os Bobs do mundo não se afastassem. “E ninguém vai treinar um modelo de IA apenas para jogar seu joguinho específico.”
A suspeita inspirada no ChatGPT pode tornar as coisas mais difíceis para os trabalhadores da multidão, que já devem estar atentos a golpes de phishing que coletam dados pessoais por meio de tarefas falsas e gastam tempo não remunerado fazendo testes de qualificação. Depois que um aumento nos dados de baixa qualidade em 2018 desencadeou um pânico de bot no Mechanical Turk, a demanda aumentou por ferramentas de vigilância para garantir que os trabalhadores fossem quem eles diziam ser.
Phelim Bradley, CEO da Prolific, uma plataforma de trabalho coletivo com sede no Reino Unido que examina participantes e solicitantes, diz que sua empresa começou a trabalhar em um produto para identificar usuários do ChatGPT e educá-los ou removê-los. Mas ele tem que ficar dentro dos limites das leis de privacidade do Regulamento Geral de Proteção de Dados da UE. Algumas ferramentas de detecção “podem ser bastante invasivas se não forem feitas com o consentimento dos participantes”, diz ele.
.








