Human-centric artificial intelligence systems for visual assistance and multimodal emotion analysis

dc.contributor.advisor Gümüş, Abdurrahman
dc.contributor.author Dede, İbrahim
dc.date.accessioned 2025-02-25T19:59:42Z
dc.date.available 2025-02-25T19:59:42Z
dc.date.issued 2024
dc.description Thesis (Master)--İzmir Institute of Technology, Electrical and Electronics Engineering, Izmir, 2024 en_US
dc.description Includes bibliographical references (leaves. 43-47). en_US
dc.description Text in English; Abstract: Turkish and English en_US
dc.description.abstract İnsan merkezli yapay zeka sistemleri, günlük yaşamı iyileştiren ve gerçek dünyadaki zorlukları ele alan teknolojiler yaratmak için çok önemlidir. Bu perspektifte, iki proje önerilmektedir. İlk proje olan Vis-Assist, görme engelli bireylere yardımcı olmak için tasarlanmış bir giyilebilir görsel yardımcı cihazdır. Nesneleri algılar ve sınıflandırır, mesafelerini ölçer ve harici sunuculara ihtiyaç duymadan entegre düşük maliyetli bir hesaplama birimi kullanarak titreşim motoru dizisi aracılığıyla gerçek zamanlı dokunsal geri bildirim sağlar. Bu cihaz, kullanıcıların 19 farklı nesne sınıfı arasında ayrım yapmasına ve güvenli bir şekilde gezinmesine olanak tanır. Geliştirilen giyilebilir cihazın performansı, dört katılımcıyla iki tür deney yoluyla değerlendirildi. Sonuçlar, kullanıcıların nesnelerin yerini belirleyebildiğini ve böylece engellerle çarpışmayı önleyebildiğini göstermektedir. Kullanıcılar ortalama olarak, 40 m²'lik boş bir alanda bir sandalye gibi önceden tanımlanmış bir nesneyi 94 saniyeden kısa bir sürede bulabilir ve nesneleri bulmak için engellerin etrafından dolaşabilir ve 121 saniyeden kısa bir sürede nesneleri bulabilir. İkinci proje, az sayıda atış öğrenmesi kullanarak çok modlu duygu sınıflandırmasına odaklanıyor. Yapay zekadaki geleneksel yöntemler, genellikle metin, görüntü, zaman serisi sinyali, ses spektrogramı gibi tek bir kaynak türünden gelen girdilere dayanır. Bu kaynaklar, modelin performansını iyileştirmek için çok modlu yaklaşımla birleştirilebilir. Bu araştırmada, OpenAI'nin CLIP çerçevesini kullanarak bir yapay zeka modeli geliştirildi ve Tip-Adapter algoritması üç tür girdiyi (metin, ses ve video) işleyecek şekilde uyarlandı. Modelin performansı, iki veri kümesi kullanılarak bir duygu sınıflandırma görevi üzerinde test edildi. Sonuçlar, çok modluluğun tek bir modalite kullanmaya kıyasla doğruluğu artırdığını göstererek, karmaşık, gerçek dünya ortamlarını anlayabilen ve bunlara yanıt verebilen insan merkezli AI sistemlerinin önemini vurguluyor.
dc.description.abstract Human-centric artificial intelligence systems are crucial for creating technologies that enhance daily life and address real-world challenges. In this perspective, two projects are developed. The first project, Vis-Assist, is a novel wearable visual assistive device designed to aid visually impaired individuals. It detects and classifies objects, measures their distances, and provides real-time haptic feedback through a vibration motor array, all using an integrated low-cost computational unit without the need for external servers. This device allows users to discern between 19 different object classes and navigate safely. The performance of the developed wearable device was evaluated through two types of experiments with four participants. The results demonstrate that users can identify the location of objects and thereby prevent collisions with obstacles. On average, users can locate a predefined object, such as a chair, within a 40 m² vacant space in under 94 seconds and navigate around obstacles to find objects in less than 121 seconds. The second project focuses on multimodal emotion classification using few-shot learning. Traditional methods in artificial intelligence (AI), typically rely on inputs from a single type of resource such as text, image, time-series signal, audio spectrogram. These resources can be combined with multimodal approach to improve the performance of the model. This research developed an AI model using OpenAI's CLIP framework and adapted the Tip-Adapter algorithm to handle three types of inputs: text, audio, and video. The model's performance was tested on an emotion classification task using two datasets. The results demonstrate that multimodality improves accuracy compared to using a single modality. en_US
dc.format.extent xi, 47 leaves en_US
dc.identifier.uri https://hdl.handle.net/11147/15345
dc.language.iso en
dc.publisher 01. Izmir Institute of Technology en_US
dc.subject Artificial emotional intelligence en_US
dc.subject Human-computer interaction en_US
dc.subject Artificial intelligence en_US
dc.subject Emotion recognition en_US
dc.title Human-centric artificial intelligence systems for visual assistance and multimodal emotion analysis en_US
dc.title.alternative Görsel yardım ve çok modlu duygu analizi için insan merkezli yapay zeka sistemleri en_US
dc.type Master Thesis en_US
dspace.entity.type Publication
gdc.coar.type text::thesis::master thesis
gdc.description.department Thesis (Master)--İzmir Institute of Technology, Electrical and Electronics Engineering en_US
gdc.description.endpage 58
gdc.description.publicationcategory Tez
gdc.identifier.yoktezid 916136
relation.isAuthorOfPublication.latestForDiscovery ce5ce1e2-17ef-4da2-946d-b7a26e44e461
relation.isOrgUnitOfPublication.latestForDiscovery 9af2b05f-28ac-4018-8abe-a4dfe192da5e

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Name:
15345.pdf
Size:
2.25 MB
Format:
Adobe Portable Document Format
Description:
Master Thesis