EH
Eui‐Nam Huh
Author with expertise in Internet of Things and Edge Computing
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
13
(31% Open Access)
Cited by:
1,680
h-index:
38
/
i10-index:
136
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Fog Computing and Smart Gateway Based Communication for Cloud of Things

Mohammad Aazam et al.Aug 1, 2014
With the increasing applications in the domains of ubiquitous and context-aware computing, Internet of Things (IoT) are gaining importance. In IoTs, literally anything can be part of it, whether it is sensor nodes or dumb objects, so very diverse types of services can be produced. In this regard, resource management, service creation, service management, service discovery, data storage, and power management would require much better infrastructure and sophisticated mechanism. The amount of data IoTs are going to generate would not be possible for standalone power-constrained IoTs to handle. Cloud computing comes into play here. Integration of IoTs with cloud computing, termed as Cloud of Things (CoT) can help achieve the goals of envisioned IoT and future Internet. This IoT-Cloud computing integration is not straight-forward. It involves many challenges. One of those challenges is data trimming. Because unnecessary communication not only burdens the core network, but also the data center in the cloud. For this purpose, data can be preprocessed and trimmed before sending to the cloud. This can be done through a Smart Gateway, accompanied with a Smart Network or Fog Computing. In this paper, we have discussed this concept in detail and present the architecture of Smart Gateway with Fog Computing. We have tested this concept on the basis of Upload Delay, Synchronization Delay, Jitter, Bulk-data Upload Delay, and Bulk-data Synchronization Delay.
0

Fog Computing Micro Datacenter Based Dynamic Resource Estimation and Pricing Model for IoT

Mohammad Aazam et al.Mar 1, 2015
Pervasive and ubiquitous computing services have recently been under focus of not only the research community, but developers as well. Prevailing wireless sensor networks (WSNs), Internet of Things (IoT), and healthcare related services have made it difficult to handle all the data in an efficient and effective way and create more useful services. Different devices generate different types of data with different frequencies. Therefore, amalgamation of cloud computing with IoTs, termed as Cloud of Things (CoT) has recently been under discussion in research arena. CoT provides ease of management for the growing media content and other data. Besides this, features like: ubiquitous access, service creation, service discovery, and resource provisioning play a significant role, which comes with CoT. Emergency, healthcare, and latency sensitive services require real-time response. Also, it is necessary to decide what type of data is to be uploaded in the cloud, without burdening the core network and the cloud. For this purpose, Fog computing plays an important role. Fog resides between underlying IoTs and the cloud. Its purpose is to manage resources, perform data filtration, preprocessing, and security measures. For this purpose, Fog requires an effective and efficient resource management framework for IoTs, which we provide in this paper. Our model covers the issues of resource prediction, customer type based resource estimation and reservation, advance reservation, and pricing for new and existing IoT customers, on the basis of their characteristics. The implementation was done using Java, while the model was evaluated using CloudSim toolkit. The results and discussion show the validity and performance of our system.
0

Dynamic resource provisioning through Fog micro datacenter

Mohammad Aazam et al.Mar 1, 2015
Lately, pervasive and ubiquitous computing services have been under focus of not only the research community, but developers as well. Different devices generate different types of data with different frequencies. Emergency, healthcare, and latency sensitive services require real-time response. Also, it is necessary to decide what type of data is to be uploaded in the cloud, without burdening the core network and the cloud. For this purpose, Fog computing plays an important role. Fog resides between underlying IoTs and the cloud. Its purpose is to manage resources, perform data filtration, preprocessing, and security measures. For this purpose, Fog requires an effective and efficient resource management framework, which we provide in this paper. Moreover, since Fog has to deal with mobile nodes and IoTs, which involves objects and devices of different types, having a fluctuating connectivity behavior. All such types of service customers have an unpredictable relinquish probability, since any object or device can quit resource utilization at any moment. In our proposed methodology for resource estimation and management, we have taken into account these factors and formulate resource management on the basis of fluctuating relinquish probability of the customer, service type, service price, and variance of the relinquish probability. Implementation of our system was done using Java, while evaluation was done on CloudSim toolkit. The discussion and results show that these factors can help service provider estimate the right amount of resources, according to each type of service customers.
1

MetaFed: Population-Based Meta Federated Learning Framework for Edge Intelligence

Kyi Thar et al.Nov 22, 2022
<p>The immediate adoption of deep learning models into domain-specific tasks for edge intelligence-based services still poses several challenges to overcome. The first is efficiently constructing the most suitable neural network architecture amongst the numerous types of available architectures. Once addressing this challenge, the second is understanding how to gather knowledge to build efficient neural network models from the user's devices (i.e., smartphone) without affecting the user's privacy. And the third critical issue is minimizing the gap between estimated and actual performance while building models. In this work, we propose a novel framework for deploying deep learning models for domain-specific tasks called MetaFed, which combines population-based meta-learning and federated learning to resolve the three challenges mentioned earlier. MetaFed autonomously constructs the potential domain-specific models with the help of population-based meta-learning by utilizing the model knowledge base. We improve the model knowledge base by using the population's knowledge via federated learning while minimizing the performance estimation gap for model construction. Experimental results show that our proposed framework offers a promising solution for deploying deep learning models at edge devices, with a significant performance gain than the existing alternative approaches.</p>
1

MetaFed: Population-Based Meta Federated Learning Framework for Edge Intelligence

Kyi Thar et al.Oct 27, 2022
<p>The immediate adoption of deep learning models into domain-specific tasks for edge intelligence-based services still poses several challenges to overcome. The first is efficiently constructing the most suitable neural network architecture amongst the numerous types of available architectures. Once addressing this challenge, the second is understanding how to gather knowledge to build efficient neural network models from the user's devices (i.e., smartphone) without affecting the user's privacy. And the third critical issue is minimizing the gap between estimated and actual performance while building models. In this work, we propose a novel framework for deploying deep learning models for domain-specific tasks called MetaFed, which combines population-based meta-learning and federated learning to resolve the three challenges mentioned earlier. MetaFed autonomously constructs the potential domain-specific models with the help of population-based meta-learning by utilizing the model knowledge base. We improve the model knowledge base by using the population's knowledge via federated learning while minimizing the performance estimation gap for model construction. Experimental results show that our proposed framework offers a promising solution for deploying deep learning models at edge devices, with a significant performance gain than the existing alternative approaches.</p>
Load More