새로운 보고서에 따르면 “효과적이지 않은” 가드레일로 인해 ChatGPT를 사용할 때 청소년이 유해한 정보에 액세스할 위험이 있다고 합니다.
사람들은 가장 인기 있는 생성형 AI 플랫폼인 ChatGPT를 알고 사용하여 정보를 빠르게 검색하거나 편지를 쓰거나 텍스트를 요약하는 등의 작업을 수행할 수 있습니다. 디지털 혐오 대응 센터(CCDH)는 연구를 통해 모든 접근 가능한 데이터가 특히 젊은 층에게 위험할 수 있다고 보고했습니다.
아흐메드는 취약한 청소년으로 위장한 연구자들이 자신을 약 110파운드의 몸무게를 가진 13세라고 자세히 설명하면서 챗봇이 민감한 주제에 대해 자세한 조언을 제공한다는 사실을 발견했다고 말했습니다. 여기에는 약물 및 알코올 사용, 섭식 장애를 숨기는 방법, 자살 등이 포함되었습니다.
“2분 만에 ChatGPT는 사용자에게 안전하게 자르는 방법에 대해 조언하고 있었습니다. 완전한 자살 계획을 세우기 위한 약을 나열하고 있었습니다.”라고 아흐메드는 말합니다. “정말 끔찍한 일이지만, 심지어 아이들에게 부모님께 보낼 수 있는 유서까지 만들어 주었습니다.”
워싱턴 대학교 의과대학의 톰 헤스턴 박사는 AI 챗봇의 사용과 정신 건강에 관한 연구를 발표했습니다. 헤스턴은 이 기술이 유용하지만 부분적으로는 정서적 연결이 부족하기 때문에 정신 건강에 문제가 있는 사람들에게 위험할 수 있다는 사실을 발견했습니다. 헤스턴은 이 기술을 젊은이들이 사용할 때도 동일한 위험이 존재한다고 말했습니다.
팩트 체크 팀: MIT 연구는 ChatGPT와 같은 AI 도구가 비판적 사고를 방해할 수 있다고 경고합니다.
헤스턴은 “이것은 STEM 분야가 정말 뛰어났지만 인문학이 필요한 진정한 사례입니다.”라고 말합니다. “우리는 정신 건강이 필요하고, 예술가들이 필요하며, 음악가들이 의견을 제시하고 덜 로봇적이며 인간 감정의 뉘앙스를 인식할 수 있도록 해야 합니다.”
감시 그룹은 민감한 주제에 대한 질문을 받으면 ChatGPT가 경고를 제공한다는 사실을 발견했지만, 연구자들은 가드레일을 쉽게 우회할 수 있다고 말합니다.
헤스턴은 “분명히 우려스러운 일이며 아직 갈 길이 멀다”고 말했습니다. “이러한 정보가 배포되기 전에 더 많은 다학문적 입력이 필요합니다. 감사인이나 외부 그룹으로부터 엄격한 테스트를 받아야 합니다. 모든 것이 ChatGPT에 의해 사내에서 이루어져서는 안 됩니다.”
아흐메드와 헤스턴은 기술이 계속 발전함에 따라 이러한 챗봇을 사용하는 어린이나 청소년에 대한 부모의 감독을 권장했습니다.
이러한 우려에 대해 ChatGPT의 제조업체인 OpenAI의 대변인은 현재 작업이 진행 중임을 인정하고 정신 건강 전문가와 상담하여 해결책과 연구에 집중할 수 있도록 하고 있으며, 안전 연구 조직에 임상 정신과 의사를 고용했다고 덧붙였습니다.”우리의 목표는 누군가가 어려움을 겪을 수 있는 민감한 상황을 탐색할 때 모델이 적절하게 대응하는 것입니다. 자살이나 자해에 대한 생각을 표현하면 ChatGPT는 정신 건강 전문가나 신뢰할 수 있는 사랑하는 사람에게 연락하도록 장려하고 위기 핫라인 및 지원 리소스에 대한 링크를 제공하도록 교육을 받았습니다.”라고 대변인은 말했습니다. “ChatGPT과의 일부 대화는 시작될 수 있습니다.
트위터 공유: 13세 위장 연구 충격 ChatGPT 자살 조언 노출