Bạn đã có thể dạy iPhone cách phân biệt đồ vật

     Dạy iPhone cách phân biệt đồ vật, điều gần như không tưởng này nay đã có thể trở thành hiện thực. Giáo trình giảng dạy đã có chi tiết trong bài viết. Liệu điện thoại của bạn có biết phân biệt các đồ vật không?

     Chắc chắn là không, nhưng ta có thể dạy dỗ nó bằng một chút hiểu biết về lập trình. Anh chàng lập trình viên Chris Greening đã làm được điều đó bằng cách kết nối camera iPhone của mình với CoreML, một nền tảng mã nguồn mở của Apple có thể sử dụng được với các sản phẩm của chính Nhà Táo, bao gồm Camera và Siri và quan trọng nhất là Vision Kit, bộ nhận dạng khuôn mặt và khung cảnh của Apple.

Bạn đã có thể dạy iPhone cách phân biệt đồ vật

     Trên blog của mình, Greening đã hướng dẫn từng bước thực hiện dự án này. Và nếu bạn muốn tự mình thử nó, bạn cần có một iPhone chạy iOS11 (Greening cảnh báo là iOS11 vẫn đang beta, đâm ra đừng thử nó với một cái điện thoại bạn dùng hàng ngày) và bên cạnh đó, bạn cần có phiên bản beta của xCode, có thể được tải về từ trang chủ của Apple. Toàn bộ quá trình code được Greening đăng tải trên Github.

     Nó nhận mặt được người anh em cùng họ hàng nhà Apple với nó, tuy nhiên chỉ đoán rằng 81% cái điện thoại này là một cái iPod, còn lại là nó đoán chung chung đây là một cái điện thoại, một cái modem, v.v… Tuy nhiên, nó hoàn toàn đoán đúng cái bàn xẻng lật thịt, khá chắc chắn cái cốc là … một loại cốc, một đồ vật gì đó để đựng nước.

     Một thiết bị đơn giản mà làm được thế là quá tuyệt vời rồi, tất nhiên là đơn giản khi so sánh với một hệ thống máy học có cả một server dữ liệu. Thử nghiệm này cho thấy công cụ Core ML của Apple cũng đáng để nghịch lắm đó chứ!

BÀI VIẾT LIÊN QUAN

Trả lời

Email của bạn sẽ không được hiển thị công khai.