Nhắc đến trí tuệ nhân tạo (AI), chúng ta thường nghĩ ngay đến hình ảnh những chú robot trong khoa học viễn tưởng hay phim ảnh.
Ví dụ, con robot trong bộ phim nổi tiếng "AI – Trí tuệ nhân tạo" của đạo diễn Steven Spielberg có ngoại hình và trí thông minh gần như giống con người, bản thân robot thậm chí còn không nhận ra đó là robot mà chỉ nghĩ rằng đó là con người; Hay những con robot xuất hiện trong loạt phim "Kẻ hủy diệt" có cơ thể và trí thông minh vượt trội hơn người thường, những tưởng tượng táo bạo về trí tuệ nhân tạo này đã để lại một dấu ấn sâu sắc và ấn tượng đối với chúng ta.
Trong những năm gần đây, sự phát triển của trí tuệ nhân tạo trong lĩnh vực khoa học và công nghệ diễn ra nhanh hơn bao giờ hết. Học máy, một nhánh của trí tuệ nhân tạo, đã thu hút được sự chú ý rộng rãi, và học sâu, một nhánh của máy học, đã trở thành một điểm nóng nghiên cứu trong những năm gần đây.
Trí tuệ nhân tạo đã từng bước phát triển như thế nào? Hôm nay, chúng ta sẽ cùng nhìn lại lịch sử của trí tuệ nhân tạo.
Năm 1949, Donald Olding Hebb xuất bản cuốn sách "The Organization of Behavior", trong đó mô tả các quy tắc học tập của Hebb và đề xuất khái niệm về trọng số (Metrics). Lý thuyết này đặt nền tảng cho thuật toán học của mạng nơ-ron nhân tạo trong học máy. Mạng nơ-ron nhân tạo là tiền thân của học sâu hiện đang rất phổ biến.
Năm 1950, Alan Turing đã xuất bản một bài báo nổi tiếng có tựa đề "Máy móc có thể suy nghĩ?", trong đó ông đưa ra khái niệm về tư duy của máy móc và đề xuất phép thử Turing (một bài kiểm tra khả năng trí tuệ của máy tính. Phép thử như sau: một người chơi thực hiện một cuộc thảo luận bằng ngôn ngữ tự nhiên với một con người và một máy tính, cả hai đều cố gắng chứng tỏ mình là con người. Ba bên tham gia phép thử được cách ly với nhau). Vì vậy, Turing còn được mệnh danh là "cha đẻ của trí tuệ nhân tạo". Sau đó, để tưởng nhớ những đóng góp của Turing, Hiệp hội Máy tính Hoa Kỳ đã thành lập Giải thưởng Turing để ghi nhận những người có đóng góp xuất sắc trong lĩnh vực khoa học máy tính.
Năm 1952, Arthur Samuel đã phát triển một chương trình chơi cờ có khả năng tự học và thậm chí có thể đánh bại những người chơi cờ chuyên nghiệp sau khi được đào tạo.
Samuel đề xuất khái niệm "học máy", được định nghĩa là "cung cấp cho máy tính một chức năng nhất định mà không được lập trình rõ ràng".
Năm 1956, khái niệm "trí tuệ nhân tạo" được đề xuất tại Hội nghị Dartmouth, vì vậy năm 1956 được gọi là năm đầu tiên của trí tuệ nhân tạo.
Năm 1957, Rosenblatt phát minh ra perceptron, mô hình nơ-ron sớm nhất trong lý thuyết mạng nơ-ron nhân tạo máy học. Ngay sau đó là sự xuất hiện của hàng loạt nghiên cứu lý thuyết học sâu, tế bào cảm thụ được so sánh với mô hình nơ-ron để hiểu sâu hơn về đơn vị cơ bản của mạng nơ-ron...
Do sự đột phá của lý thuyết mạng nơ-ron nhân tạo, lĩnh vực trí tuệ nhân tạo đã được quan tâm rất nhiều, các cơ quan chính phủ đã đầu tư nhiều kinh phí để thành lập nhiều dự án liên quan.
Năm 1960, Vidro là người đầu tiên sử dụng quy tắc học delta cho bước huấn luyện perceptron. Phương pháp này sau đó được gọi là phương pháp bình phương nhỏ nhất. Sự kết hợp của hai điều này tạo ra một bộ phân loại tuyến tính tốt.
Năm 1967, Giải thuật k hàng xóm gần nhất (k-Nearest Neighbor, KNN) xuất hiện, từ đó máy tính có thể thực hiện nhận dạng mẫu đơn giản.
Năm 1969, Marvin Minsky xuất bản cuốn sách "Perceptrons", trong đó ông đề xuất những hạn chế của mạng nơ-ron nhân tạo. Do vị trí quan trọng của Minsky trong lĩnh vực trí tuệ nhân tạo, và do những trở ngại trong lĩnh vực nghiên cứu trí tuệ nhân tạo, các nhà nghiên cứu của các dự án trí tuệ nhân tạo đã không thể thực hiện lời hứa trước đó của họ. Kỳ vọng lạc quan của mọi người về trí tuệ nhân tạo đã bị ảnh hưởng nặng nề, và nhiều các dự án nghiên cứu đã bị dừng lại hoặc chuyển hướng sang các dự án khác. Theo đó, nghiên cứu về AI đã rơi vào tình trạng tụt dốc.
Từ giữa những năm 1970, trí tuệ nhân tạo đã bước vào "thời kỳ tri thức". Một lớp các chương trình AI được gọi là "hệ chuyên gia" (Expert system) bắt đầu được các công ty trên thế giới áp dụng và "xử lý kiến thức" (Knowledge processing) trở thành trọng tâm của nghiên cứu AI chính thống.
Trong thời gian này, nhiều quốc gia tiên phong đã mạnh tay vào đầu tư các dự án tương tự với hy vọng chế tạo những cỗ máy có thể nói chuyện với con người, dịch ngôn ngữ, giải thích hình ảnh và suy luận giống như con người.
Hệ chuyên gia là một chương trình có thể trả lời hoặc giải quyết các vấn đề trong một lĩnh vực cụ thể theo một tập hợp các quy tắc logic rút ra từ kiến thức chuyên ngành.
Dendral, một dự án về trí tuệ nhân tạo được thiết kế từ năm 1965, có thể phân biệt các hỗn hợp dựa trên kết quả đo phổ kế. Năm 1972, MYCIN một hệ thống chuyên gia về chuỗi lạc hậu sớm sử dụng trí thông minh nhân tạo được ra đời, nó có khả năng xác định vi khuẩn gây nhiễm trùng nặng, như nhiễm khuẩn huyết và viêm màng não, và khuyên dùng kháng sinh, với liều điều chỉnh theo trọng lượng cơ thể của bệnh nhân. Theo đó, hệ thống cơ sở tri thức và kỹ thuật tri thức đã trở thành định hướng chính của nghiên cứu AI trong những năm 1980.
Năm 1982, Hopfield đề xuất một loại mạng nơ-ron mới, sau này được gọi là mạng Hopfield, sử dụng một cách hoàn toàn mới để tìm hiểu và xử lý thông tin. Đồng thời, thuật toán lan truyền ngược, một phương pháp huấn luyện của mạng nơ-ron, được đề xuất, và thuật toán này cũng là một trong những thuật toán quan trọng của lý thuyết học sâu. Việc nghiên cứu theo hướng mạng nơ-ron nhân tạo vốn im hơi lặng tiếng nhiều năm thì cho tới thời điểm này đã lấy lại được sự phát triển.
Năm 1986, một thuật toán quan trọng được đề xuất bởi Quinlan, đó là thuật toán cây quyết định hay còn gọi là thuật toán ID3. So với mô hình mạng nơ-ron, thuật toán cây quyết định ID3 cũng được sử dụng như một phần mềm, bằng cách sử dụng các quy tắc đơn giản và các tham chiếu rõ ràng để tìm ra nhiều trường hợp sử dụng thực tế hơn. Cây quyết định là một kỹ thuật được sử dụng thường xuyên trong khai thác dữ liệu, có thể được sử dụng để phân tích dữ liệu cũng như đưa ra dự đoán.
Năm 1990, Schapire lần đầu tiên xây dựng một thuật toán cấp đa thức, thuật toán Tăng cường ban đầu. Một năm sau, Freund đề xuất một thuật toán Thúc đẩy hiệu quả hơn.
Năm 1995, Freund và Schapire đã cải tiến thuật toán Tăng cường và đề xuất thuật toán AdaBoost (Tăng cường thích ứng). Hiệu quả của thuật toán này gần như tương đương với thuật toán Tăng cường do Freund đề xuất năm 1991, nhưng dễ áp dụng hơn vào các vấn đề thực tế.
Cùng năm đó, một trong những đột phá quan trọng nhất trong lĩnh vực học máy, hỗ trợ máy vectơ (SVM), được đề xuất bởi Vapnick và Cortez trong một số lượng lớn các điều kiện lý thuyết và thực nghiệm. Kể từ đó, nghiên cứu học máy đã được chia thành hướng mạng nơ-ron và hướng máy vector hỗ trợ.
Năm 1997, siêu máy tính Deep Blue của IBM đánh bại nhà vô địch cờ vua thế giới Kasparov đã thu hút sự chú ý của cả thế giới.
Năm 2001, Brehman đề xuất mô hình cây quyết định tổng hợp, bao gồm một tập hợp con ngẫu nhiên của các cá thể và mỗi nút được chọn từ một loạt các tập con ngẫu nhiên. Do đặc tính này, nó còn được gọi là Random forest (RF).
Vào năm 2006, chuyên gia mạng nơ-ron Hinton đã đề xuất một thuật toán học sâu mạng nơ-ron, giúp cải thiện đáng kể khả năng của mạng nơ-ron, thách thức các máy vectơ hỗ trợ và bắt đầu làn sóng học sâu trong giới học thuật và công nghiệp.
Học sâu cho phép các mô hình tính toán với nhiều lớp xử lý để học từ dữ liệu với nhiều lớp trừu tượng. Những phương pháp này đã dẫn đến những cải tiến đáng kể trong nhiều lĩnh vực, bao gồm nhận dạng giọng nói hiện đại, nhận dạng hình ảnh trực quan, phát hiện hình ảnh và nhiều lĩnh vực khác như phát hiện ma túy và gen.
Học sâu có thể khám phá các cấu trúc phức tạp trong dữ liệu lớn. Nó sử dụng thuật toán BP để hoàn thành quá trình khám phá. Thuật toán BP có thể hướng dẫn máy cách lấy lỗi từ lớp trước và thay đổi các thông số bên trong của lớp này, và các thông số bên trong này có thể được sử dụng để tính toán, biểu diễn. Mạng tích hợp sâu đã mang lại những đột phá trong việc xử lý hình ảnh, video, lời nói và âm thanh, trong khi mạng lặp lại đã cho thấy những điểm sáng trong việc xử lý dữ liệu tuần tự như văn bản và giọng nói.
Đồng thời, với sự phát triển không ngừng của dữ liệu lớn, một số vấn đề hiện nay không còn có thể giải quyết theo cách thủ công và thường cần sự trợ giúp của máy tính để hoàn thành một số xử lý dữ liệu phức tạp. Sự kết hợp giữa trí tuệ nhân tạo và dữ liệu lớn là điểm nổi bật của các nghiên cứu hiện nay.
Các phương pháp học thống kê phổ biến nhất trong trí tuệ nhân tạo là học sâu và máy vectơ hỗ trợ, là phương pháp đại diện cho học tập thống kê. Có thể coi cả mạng nơ-ron và máy vectơ hỗ trợ đều có nguồn gốc từ các perceptron.
Mô hình mạng nơ-ron thường được sử dụng để thực hiện các nhiệm vụ khó khăn như nhận dạng đối tượng, nhận dạng giọng nói, xử lý ngôn ngữ tự nhiên, v.v. Trong khi đó, tính đơn giản của SVM lại khiến nó vẫn là phương pháp học máy được sử dụng rộng rãi nhất.
Cải tiến là bản chất của công nghệ và tốc độ cải tiến của nó là cấp số nhân. Tăng trưởng theo cấp số nhân xảy ra khi số lượng tăng tỷ lệ với kích thước của một thứ gì đó. Ví dụ, tiền lãi trả cho một tài khoản ngân hàng tỷ lệ thuận với số dư của nó. Miễn là tăng trưởng theo cấp số nhân thì sẽ có thời gian không đổi.
Bởi vậy có thể nói sự phát triển của trí tuệ nhân tạo ngày hôm nay chỉ là một điểm khởi đầu. Nếu sức mạnh của công nghệ điện toán tiếp tục phát triển, thì trong tương lai, sự phát triển của AI sẽ là viễn cảnh khó lòng có thể dự đoán chính xác và có thể một ngày không xa, trí tuệ nhân tạo sẽ vượt xa sự thông minh của con người ở nhiều khía cạnh.
(Theo Trí Thức Trẻ)
Chiến trường Ukraine vén màn bí mật công nghệ của các ông lớn
Tháng 3/2022, Ukraine thông báo đã thu giữ được 1 đơn vị Krasukha-4, hệ thống tác chiến điện tử hiện đại nhất của quân đội Nga tại chiến trường gần Kiev. Ngay lập tức, hệ thống này được chuyển giao cho phía Mỹ “mổ xẻ”.