YL
Yue Liao
Author with expertise in Deep Learning in Computer Vision and Image Recognition
Achievements
Open Access Advocate
Cited Author
Key Stats
Upvotes received:
0
Publications:
3
(100% Open Access)
Cited by:
241
h-index:
16
/
i10-index:
19
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

PPDM: Parallel Point Detection and Matching for Real-Time Human-Object Interaction Detection

Yue Liao et al.Jun 1, 2020
We propose a single-stage Human-Object Interaction (HOI) detection method that has outperformed all existing methods on HICO-DET dataset at 37 fps on a single Titan XP GPU. It is the first real-time HOI detection method. Conventional HOI detection methods are composed of two stages, i.e., human-object proposals generation, and proposals classification. Their effectiveness and efficiency are limited by the sequential and separate architecture. In this paper, we propose a Parallel Point Detection and Matching (PPDM) HOI detection framework. In PPDM, an HOI is defined as a point triplet < human point, interaction point, object point>. Human and object points are the center of the detection boxes, and the interaction point is the midpoint of the human and object points. PPDM contains two parallel branches, namely point detection branch and point matching branch. The point detection branch predicts three points. Simultaneously, the point matching branch predicts two displacements from the interaction point to its corresponding human and object points. The human point and the object point originated from the same interaction point are considered as matched pairs. In our novel parallel architecture, the interaction points implicitly provide context and regularization for human and object detection. The isolated detection boxes unlikely to form meaningful HOI triplets are suppressed, which increases the precision of HOI detection. Moreover, the matching between human and object detection boxes is only applied around limited numbers of filtered candidate interaction points, which saves much computational cost. Additionally, we build a new application-oriented database named as HOI-A, which serves as a good supplement to the existing datasets.
0

EMA-YOLO: A Novel Target-Detection Algorithm for Immature Yellow Peach Based on YOLOv8

Dandan Xu et al.Jun 11, 2024
Accurate determination of the number and location of immature small yellow peaches is crucial for bagging, thinning, and estimating yield in modern orchards. However, traditional methods have faced challenges in accurately distinguishing immature yellow peaches due to their resemblance to leaves and susceptibility to variations in shooting angles and distance. To address these issues, we proposed an improved target-detection model (EMA-YOLO) based on YOLOv8. Firstly, the sample space was enhanced algorithmically to improve the diversity of samples. Secondly, an EMA attention-mechanism module was introduced to encode global information; this module could further aggregate pixel-level features through dimensional interaction and strengthen small-target-detection capability by incorporating a 160 × 160 detection head. Finally, EIoU was utilized as a loss function to reduce the incidence of missed detections and false detections of the target small yellow peaches under the condition of high density of yellow peaches. Experimental results show that compared with the original YOLOv8n model, the EMA-YOLO model improves mAP by 4.2%, Furthermore, compared with SDD, Objectbox, YOLOv5n, and YOLOv7n, this model’s mAP was improved by 30.1%, 14.2%,15.6%, and 7.2%, respectively. In addition, the EMA-YOLO model achieved good results under different conditions of illumination and shooting distance and significantly reduced the number of missed detections. Therefore, this method can provide technical support for smart management of yellow-peach orchards.
0

Anchor3DLane++: 3D Lane Detection Via Sample-Adaptive Sparse 3D Anchor Regression

Shaofei Huang et al.Jan 1, 2024
In this paper, we focus on the challenging task of monocular 3D lane detection.Previous methods typically adopt inverse perspective mapping (IPM) to transform the Front-Viewed (FV) images or features into the Bird-Eye-Viewed (BEV) space for lane detection.However, IPM's dependence on flat ground assumption and context information loss in BEV representations lead to inaccurate 3D information estimation.Though efforts have been made to bypass BEV and directly predict 3D lanes from FV representations, their performances still fall behind BEV-based methods due to a lack of structured modeling of 3D lanes.In this paper, we propose a novel BEVfree method named Anchor3DLane++ which defines 3D lane anchors as structural representations and makes predictions directly from FV features.We also design a Prototype-based Adaptive Anchor Generation (PAAG) module to generate sampleadaptive sparse 3D anchors dynamically.In addition, an Equal-Width (EW) loss is developed to leverage the parallel property of lanes for regularization.Furthermore, camera-LiDAR fusion is also explored based on Anchor3DLane++ to leverage complementary information.Extensive experiments on three popular 3D lane detection benchmarks show that our Anchor3DLane++ outperforms previous state-of-the-art methods.Code is available at: https://github.com/tusen-ai/Anchor3DLane.