<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns="http://purl.org/rss/1.0/" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/10140">
    <title>Repository Collection: null</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/10140</link>
    <description />
    <items>
      <rdf:Seq>
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/60084" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/60067" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/60034" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/60012" />
      </rdf:Seq>
    </items>
    <dc:date>2026-04-04T11:17:37Z</dc:date>
  </channel>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/60084">
    <title>Real-World Validation of Dynamic Text-based eHMIs for Pedestrian Interaction with Autonomous Shuttles</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/60084</link>
    <description>Title: Real-World Validation of Dynamic Text-based eHMIs for Pedestrian Interaction with Autonomous Shuttles
Author(s): Hyunmin Kang; Hyochang Kim; Hyungchai Park; Hoseok Jung; Son, Joonwoo; Park, Myoungouk
Abstract: External human-machine interfaces (eHMIs) are designed to explicitly communicate autonomous vehicles&amp;apos; (AVs) intentions, thereby enhancing safety in complex traffic interactions. This study evaluated the effectiveness of a dynamic text-based eHMI on an autonomous shuttle operating in a naturalistic setting at unsignalized crosswalks in South Korea. Through field observations, we identified scenarios in which traditional yielding or stopping messages were insufficient, especially under conditions of continuous pedestrian flow causing vehicle delays. Using this scenario, explicitly communicating the vehicle&amp;apos;s imminent departure, was tested against a static control condition. Post-interaction surveys of 60 pedestrians revealed that the dynamic eHMI significantly improved message visibility, comprehension, and perceived system support. Additionally, pedestrians exposed to the dynamic eHMI prioritized explicit textual cues over implicit vehicle cues when deciding to cross, leading to increased trust in AV technology. These results highlight the practical value of context-sensitive, explicit eHMIs for enhancing real-world AV-pedestrian interactions.</description>
    <dc:date>2025-09-23T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/60067">
    <title>도심환경에서의 변화에 강인한 LiDAR 위치인식 기법</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/60067</link>
    <description>Title: 도심환경에서의 변화에 강인한 LiDAR 위치인식 기법
Author(s): 김기섭; 박명옥; 손준우
Abstract: This paper presents a LiDAR-based localization method that remains robust to long-term map changes in urban environments. While most existing localization approaches rely on up-to-date high-definition maps, our method achieves accurate pose estimation even when using outdated maps built years earlier. Built upon the KISS-ICP framework, the proposed system introduces adaptive map registration and global consistency maintenance against structural changes such as new buildings, roadworks, and vegetation growth. Experimental results in campus and urban settings demonstrate globally consistent alignment within 7 cm despite multi-year map discrepancies, confirming the method’s effectiveness for long-term autonomous navigation.</description>
    <dc:date>2025-11-28T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/60034">
    <title>전경 분리를 활용한 인간 행동 인식 분석 실험</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/60034</link>
    <description>Title: 전경 분리를 활용한 인간 행동 인식 분석 실험
Author(s): 박영진; 조희섭
Abstract: 본 연구는 HMDB51 데이터셋에서 선별한 11개 행동 클래스를 대상으로, 전경 분리가 3D 행동 인식모델 성능에 미치는 영향을 분석하였다. 선정된 클래스는 drink, eat, smoke, talk, pick, smile, laugh, clap, pour, wave, shake_hands로, 일상적 제스처와 상호작용을 포함한다. 원본 데이터셋과 Detectron2 기반 전경 분리 데이터셋을 각각 SlowFast 모델에 학습 및 평가한 결과, 전경 분리의 적용은 전반적으로 성능 향상으로 이어지지 않았으며, 오히려 배경 단서 등의 소실로 성능 저하가 관찰되었다. 이러한 결과는 전경 분리가 보편적인 성능 개선 기법이 아님을 보여주며, 행동 인식에서 전경 및 배경 단서가 상호보완적으로 작용함을 규명하는 데 의의가 있다.</description>
    <dc:date>2025-11-18T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/60012">
    <title>ReAct-Robotics : 추론과 행동 기반의 언어 주도 로봇 제어 프레임워크</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/60012</link>
    <description>Title: ReAct-Robotics : 추론과 행동 기반의 언어 주도 로봇 제어 프레임워크
Author(s): 손종욱
Abstract: 본 연구는 대형 언어 모델(Large Language Model, LLM)이 텍스트 기반 추론을 넘어 실제 물리 환경과 상호작용할 수 있도록 제안된 ReAct: Synergizing Reasoning and Acting in Language Models 접근법을 로봇 제어 시나리오에 적용하기 위한 개념적 아이디어를 다룬다. ReAct는 체인-오브-소트(Chain-of-Thought) 방식의 추론 과정에 외부 툴이나 API 호출을 결합함으로써, LLM이 문제를 해결하는 도중에도 동적으로 환경 정보를 갱신·활용할 수 있게 해준다. 이러한 특징은 물리적 제약이 있는 로봇 환경에서 특히 유용하여, “빨강 블록을 파랑 블록 위에 올려놓으라”와 같은 자연어 지시를 받았을 때 환경 변화를 즉각적으로 고려하고 적절한 작업 순서를 결정할 수 있다. 본 논문에서는 ReAct 방식이 로봇 제어에 부합하는 이유를 분석하고, 이를 실현하기 위해 필요한 Task-Level API 설계 및 LLM과의 연계 구조를 제안한다. 또한 로봇 제어 분야의 최신 연구 동향을 바탕으로, ReAct가 가져올 수 있는 이점과 극복해야 할 과제도 함께 논의한다. 결론적으로 ReAct는 대형 언어 모델과 로봇을 결합하여 동적이고 복합적인 환경에서의 지능적 행동을 가능케 하는 핵심 수단이 될 수 있으며, 향후 시뮬레이션 및 실제 물리 환경 실험을 통해 더 구체적인 성능 검증과 연구 발전이 기대된다.</description>
    <dc:date>2025-02-05T15:00:00Z</dc:date>
  </item>
</rdf:RDF>

