
Please use this identifier to cite or link to this item:
https://rsuir-library.rsu.ac.th/handle/123456789/3031| Title: | รายงานวิจัยฉบับสมบูรณ์ โครงการวิจัย ข้อจำกัดของปัญญาประดิษฐ์ในการใช้ดุลพินิจตัดสินมนุษย์ |
| Other Titles: | Limitations of artificial intelligence in making a judgment on humans |
| Authors: | ชนุตร์ นาคทรานันท์ |
| Keywords: | ปัญญาประดิษฐ์ -- กฎหมายและระเบียบข้อบังคับ;การพิจารณาและตัดสินคดี;ดุลยพินิจ;มนุษย์ |
| Issue Date: | 2566 |
| Publisher: | สถาบันวิจัย มหาวิทยาลัยรังสิต |
| Abstract: | งานวิจัยเรื่องข้อจำกัดของปัญญาประดิษฐ์ในการใช้ดุลพินิจตัดสิน เป็นงานวิจัยเชิงคุณภาพ มีวัตถุประสงค์สองข้อคือ 1. เพื่อศึกษาข้อจำกัดของปัญญาประดิษฐ์ในการใช้ดุลพินิจตัดสิน 2. เพื่อจำแนกประเภทของข้อข้อจำกัดในการใช้ดุลพินิจของปัญญาประดิษฐ์ งานวิจัยนี้เก็บข้อมูลผ่านเอกสารเกี่ยวกับการทำงานของปัญญาประดิษฐ์ที่มีความบกพร่องในการใช้ดุลพินิจ ประชากรตัวอย่างที่ใช้ในการศึกษา คือ ปัญญาประดิษฐ์ที่ชื่อBard กับ ChatGPT และปัญญาประดิษฐ์ที่ทำงานเกี่ยวกับการคัดกรองผู้สมัครงาน การต้อนรับแขกในโรงแรม และการประเมินความเสี่ยงในการกระทำความผิดซ้ำของผู้ที่มีความผิด (COMPAS)งานวิจัยนี้ใช้แนวคิดเรื่องความคู่ควร ซึ่งเป็นหลักสำคัญของแนวคิดเรื่องความยุติธรรม ในการพิจารณาข้อบกพร่องในการใช้ดุลพินิจตัดสินของปัญญาประดิษฐ์ใน 4 ด้านด้วยกันคือ 1. การใช้ดุลพินิจในเรื่องความสุข 2. การใช้ดุลพินิจในเรื่องเสรีภาพ 3. การใช้ดุลพินิจในเรื่องความเสมอภาค 4. การใช้ดุลพินิจในเรื่องความยุติธรรมผลการศึกษาพบว่าปัญญาประดิษฐ์มีข้อจำกัดในการใช้ดุลพินิจตัดสินในทั้ง 4 ประเด็น ซึ่งสามารถสรุปปัญหาได้ว่าเกิดจากการที่ปัญญาประดิษฐ์ในปัจจุบันยังไม่มีความสามารถมากพอที่จะตัดสินเชิงคุณค่า และตัดสินในเชิงจริยศาสตร์ได้ถูกต้องตามหลักความคู่ควร กล่าวคือไม่สามารถตัดสินได้ว่าใครคู่ควรกับอะไร ปัญญาประดิษฐ์ไม่ สามารถมีอารมณ์ความรู้สึกเหมื อนมนุษย์จึงมีปัญหาในการใช้ดุลพินิจเรื่องความสุข ปัญญาประดิษฐ์อาจสร้างอันตรายต่อมนุษย์ได้หากขาดการควบคุมโดยมนุษย์ เช่นสร้างข้อมูลเท็จว่ามีการก่อการร้ายสะท้อนว่ามีปัญหาการใช้ดุลพินิจเกี่ย วกับสิทธิเสรีภาพ ปัญญาประดิษฐ์มีแนวโน้มเหยียดผิวโดยไม่ได้เจตนา เช่นเข้าใจผิดว่าใบหน้าของมนุษย์ต้องเป็นสีขาว ไม่ใช่สีดำ จึงไม่ได้มองมนุษย์ผิวดำว่าเป็นมนุษย์จึงมีข้อจำกัดในเรื่องการสร้างความเสมอภาคและปัญญาประดิษฐ์มีข้อจำกัดในการตัดสินอย่างยุติธรรม เนื่องจา กข้อมูลที่ใช้ในการฝึกฝนมีความลำเอียงตั้งแต่ต้นเช่นข้อมูลที่เต็มไปด้วยมนุษย์ผิวขาว เพศชายที่ดำรงตำแหน่งสำคัญในสังคม ส่งผลให้ปัญญาประดิษฐ์เรียนรู้ว่าเช่นข้อมูลที่เต็มไปด้วยมนุษย์ผิวขาว เพศชายที่ดำรงตำแหน่งสำคัญในสังคม ส่งผลให้ปัญญาประดิษฐ์เรียนรู้ว่า มนุษย์เพศชายเหนือกว่าเพศอื่น มนุษย์ผิวขาวเหนือกว่ามนุษย์ผิวดำ และปัญญาประดิษฐ์ใช้ฐานข้อมูลเหล่านี้ในการมนุษย์เพศชายเหนือกว่าเพศอื่น มนุษย์ผิวขาวเหนือกว่ามนุษย์ผิวดำ และปัญญาประดิษฐ์ใช้ฐานข้อมูลเหล่านี้ในการประเมินตัดสินเหตุการณ์ต่างๆ เช่นประเมินให้ผู้สมัครงประเมินตัดสินเหตุการณ์ต่างๆ เช่นประเมินให้ผู้สมัครงานเพศชายผ่านการคัดเลือกมากกว่าผู้สมัครงานเพศหญิง ซึ่งานเพศชายผ่านการคัดเลือกมากกว่าผู้สมัครงานเพศหญิง ซึ่งนี่คือปัญหาเรื่องความเป็นกลางที่ลำเอียง หมายความว่าปัญญาประดิษฐ์ตัดสินอย่างเป็นกลางตามฐานข้อมูลของนี่คือปัญหาเรื่องความเป็นกลางที่ลำเอียง หมายความว่าปัญญาประดิษฐ์ตัดสินอย่างเป็นกลางตามฐานข้อมูลของตนเอง แต่ฐานข้อมูลที่ว่านั้นมีความลำเอียงอยู่ในตัวเอง จึงส่งผลให้ปัญญาประดิษฐ์มีข้อบกพร่องในเรื่องของการตนเอง แต่ฐานข้อมูลที่ว่านั้นมีความลำเอียงอยู่ในตัวเอง จึงส่งผลให้ปัญญาประดิษฐ์มีข้อบกพร่องในเรื่องของการตัดสินว่าใครคู่ควรกับอะไร ตัดสินว่าใครคู่ควรกับอะไร |
| metadata.dc.description.other-abstract: | Research on the limitations of artificial intelligence in making a judgment on human is a qualitative research. The research has two objectives: 1. To study the limitations of artificial intelligence in making a judgment. 2. To classify the types of judgment’s limitations. This research is a documentary research using the information of artificial intelligence with impaired judgment. The population used in the research are the famous chatbot AI, Bard and ChatGPT, The AI working in screening job applicants, the AI working in the hotel, and the AI working in risk assessment for recidivism (COMPAS). This research uses the concept of justice as desert, which is the cornerstone of the concept of justice, to analyze the shortcomings of AI’s judgment in four issues 1. Judgment in the matter of happiness 2. Judgment in the matter of freedom 3. Judgment in the matter of equality 4. Judgment in the matter of justice. The research found that artificial intelligence has limitations in making a judgment in all four issues. It can be concluded that artificial intelligence currently does not have enough ability to make correct ethical judgments according to the principle of justice as desert. AI is unable to decide who is worthy of what. AI doesn’t have emotions like human that is the reason AI has a problem with making a judgment about happiness. AI can harm human if it is not controlled by human. For example, creating false information regarding terrorism implies that AI has a problem with making judgment about freedom. AI also has racist tendencies. For example, AI misunderstands that the human face must be white, not black. Therefore the AI with racist tendencies doesn’t consider black human as human being and that is why AI has a problem in making a judgment about equality. AI has limitations in making fair decisions. This is because the data used for AI training is biased from the beginning. AI learns from the data that is full of white male humans holding important positions in society. As a result, AI learns that male humans are superior to other genders. White humans are superior to black humans. AI uses these kind of data to evaluate and judge various situations. For example, male job applicants are evaluated positively than female job applicants by AI’s judgment. This is the problem of impartiality with bias. It means that AI makes unbiased judgments based on its own data but that data has its own bias. As a result, artificial intelligence is flawed in deciding who is worthy of what. |
| URI: | https://rsuir-library.rsu.ac.th/handle/123456789/3031 |
| metadata.dc.type: | Other |
| Appears in Collections: | Political- Research |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| CHANUT NAKTRANUN.pdf | 1.48 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.