Tại sao các nhà phát triển phải làm việc thông minh hơn chứ không chỉ nhanh hơn với Generative AI


Việc quản lý các công cụ trí tuệ nhân tạo tổng hợp (GenAI) sẽ kéo theo những thay đổi lớn về văn hóa và quy trình khi việc sử dụng nó tiếp tục lan rộng nhanh chóng trong các nhóm nhà phát triển.

Theo Kiran Minnasandram, phó chủ tịch kiêm giám đốc công nghệ của Wipro FullStride Cloud, đây không chỉ là việc áp dụng các công cụ mới mà còn thay đổi cách các nhà phát triển tương tác với công nghệ, giải quyết vấn đề và tạo ra các mô hình mới trong công nghệ phần mềm.

Ông nói, cần phải có một “sự biến đổi toàn diện về văn hóa và thủ tục” để quản lý hợp lý các rủi ro liên quan đến GenAI, bao gồm ảo giác, phình to kỹ thuật, ngộ độc dữ liệu, thao túng đầu vào hoặc tiêm nhắc nhở đến vi phạm sở hữu trí tuệ (IP) và trộm cắp GenAI. chính họ làm người mẫu.

Minnasandram nói: “Bạn phải lo lắng về tính đúng đắn của mô hình. “Bạn phải lo lắng về sự trôi dạt của mô hình hoặc ảo giác của mô hình. Mọi mô hình đều dựa trên dữ liệu và dữ liệu vốn có sự thiên vị. Ngay cả khi đó là một tỷ lệ sai lệch nhỏ và bạn bắt đầu ngoại suy điều đó với ngày càng nhiều dữ liệu, thì sự sai lệch sẽ chỉ tăng lên mà thôi.”

Vì lý do đó, các tổ chức phải “rất cẩn thận” với lượng dữ liệu mà họ sử dụng vào các mô hình, vì dữ liệu sẽ có thành kiến. Khi các tổ chức ngoại suy từ các tập dữ liệu hạn chế, kết quả sẽ bị giới hạn ở chất lượng và số lượng đó. Dữ liệu mong muốn có thể nhạy cảm và riêng tư – và dữ liệu không có sẵn trong bộ dữ liệu rõ ràng của riêng bạn có thể dễ dàng gây ra ảo giác mô hình.

Minnasandram cho biết: “Do đó, bạn cần có các chiến lược giảm nhẹ hiệu quả, nhưng tất cả đều tùy thuộc vào từng trường hợp cụ thể”. “Chúng ta phải hết sức thận trọng. Ví dụ: nếu đó là dữ liệu nhạy cảm, làm cách nào để ẩn danh dữ liệu đó mà không làm giảm chất lượng dữ liệu?”

Nội dung được tạo cũng có thể cần có rào chắn. Ngay cả khi tạo mã nguồn, viết một số mã để hoàn thiện máy thì mã đó vẫn chưa hoàn chỉnh. Ông nói, các biện pháp bảo vệ thích hợp cho điều đó có thể đòi hỏi phải đo lường chất lượng của nội dung đó.

Khung trách nhiệm

Giá trị doanh nghiệp sẽ yêu cầu các khuôn khổ trách nhiệm bao gồm việc sử dụng cá nhân cũng như công nghệ và các tính năng kỹ thuật của nó trong một môi trường nhất định. Wipro đã tự phát triển và xem xét cách thực hiện và triển khai nó, bao gồm cả nội bộ và trong khi vẫn duy trì khả năng đáp ứng cho khách hàng.

Điều đó bao gồm nỗ lực để hiểu đầy đủ các rủi ro xung quanh việc xem xét mã, bảo mật và kiểm toán, tuân thủ quy định, v.v. để phát triển các biện pháp bảo vệ.

Tin tốt là ngày càng có nhiều công cụ cải thiện hiệu suất và chất lượng mã, bao gồm tối ưu hóa mã và trình biên dịch, để tích hợp vào các quy trình CI/CD, Minnasandram cho biết.

Tuy nhiên, vấn đề không thể chỉ là đặt GenAI sang một bên. Nhu cầu về các nhiệm vụ như tái cấu trúc mã và các kỹ thuật nâng cao hơn như mã hóa dự đoán hoặc mã hóa cộng tác – trong đó một máy “ngồi cùng với nhà phát triển” và thực hiện nâng mã ban đầu – đang tăng lên.

Don Schuerman, giám đốc công nghệ (CTO) của công ty tự động hóa quy trình làm việc Pegasystems, cho biết những thách thức chính không phải đến từ việc thiếu mã mà là “một núi nợ kỹ thuật”, với việc GenAI được quản lý kém chỉ đơn giản là làm tăng gánh nặng công nghệ.

Vì lý do đó, anh ấy thấy GenAI được sử dụng tốt hơn cho các nhiệm vụ khác ngoài việc “viết mã”.

“Tốt hơn hết là sử dụng GenAI để quay lại vấn đề kinh doanh mà mã đang cố gắng giải quyết: làm cách nào để chúng tôi tối ưu hóa một quy trình để đạt hiệu quả? Cách nhanh nhất để hỗ trợ khách hàng của chúng tôi trong khi vẫn tuân thủ các nguyên tắc quy định là gì?” anh ta nói. “Thiết kế quy trình làm việc tối ưu trong tương lai, thay vì tạo ra mã để tự động hóa các quy trình mà chúng tôi đã biết là sẽ bị hỏng.”

Áp lực nơi làm việc

Anh ấy đồng ý rằng ngay cả khi bạn có kinh nghiệm và kỹ năng giám sát ở mọi cấp độ, chỉnh sửa và kiểm tra mã sau khi nó được viết, áp lực tại nơi làm việc có thể gây ra lỗi và khiến mọi thứ bị bỏ sót.

Đảm bảo người dùng có “phiên bản an toàn của các công cụ” và sau đó sử dụng GenAI nhiều hơn để “đi trước công việc kinh doanh”. Với các công cụ mã nguồn thấp, các nhóm CNTT thường thấy mình phải giải quyết các lỗi CNTT ngầm và điều tương tự cũng có thể đúng với GenAI – việc triển khai nó một cách cụ thể sẽ hữu ích hơn nhằm mang lại tốc độ và sự đổi mới trong các rào cản đồng thời đảm bảo tuân thủ và khả năng bảo trì, Schuerman chỉ ra.

Áp dụng các phương pháp như tạo tăng cường truy xuất (RAG) để giúp kiểm soát cách GenAI truy cập kiến ​​thức mà không cần tốn chi phí xây dựng và duy trì mô hình ngôn ngữ lớn tùy chỉnh (LLM), tạo ra những “bạn bè” kiến ​​thức trả lời các câu hỏi dựa trên một bộ kiến ​​thức doanh nghiệp được chỉ định nội dung. RAG có thể giúp ngăn ngừa ảo giác đồng thời đảm bảo trích dẫn và truy xuất nguồn gốc.

Sử dụng GenAI để tạo ra các mô hình – quy trình làm việc, cấu trúc dữ liệu, màn hình – có thể được thực thi bởi các nền tảng dựa trên mô hình, có thể mở rộng. Schuerman cho biết, rủi ro đến từ việc sử dụng GenAI để “biến mọi người thành nhà phát triển”, tạo ra nhiều nợ kỹ thuật và cồng kềnh hơn.

Giới hạn nó ở việc tạo quy trình công việc, mô hình dữ liệu, trải nghiệm người dùng, v.v. để thể hiện trải nghiệm tối ưu của khách hàng và nhân viên, dựa trên các phương pháp hay nhất trong ngành. Nếu làm như vậy, bạn có thể thực thi các ứng dụng thu được trong quy trình làm việc cấp doanh nghiệp và nền tảng ra quyết định được thiết kế để mở rộng quy mô.

Schuerman cho biết: “Và nếu cần thực hiện thay đổi, bạn sẽ không cần phải sử dụng nhiều mã được tạo để tìm hiểu điều gì đang xảy ra – bạn chỉ cần cập nhật các mô hình thân thiện với doanh nghiệp phản ánh các bước quy trình làm việc hoặc điểm dữ liệu trong ứng dụng của mình”.

Chris Royles, CTO hiện trường tại nhà cung cấp nền tảng dữ liệu Cloudera, cho biết điều quan trọng là phải đào tạo mọi người cách tăng cường lời nhắc của họ bằng thông tin tốt hơn, phù hợp hơn. Điều đó có thể có nghĩa là cung cấp một bộ sưu tập dữ liệu có giới hạn, được kiểm tra kỹ lưỡng và hướng dẫn công cụ tổng hợp chỉ sử dụng dữ liệu có thể được tìm thấy rõ ràng trong các bộ dữ liệu đó chứ không phải dữ liệu nào khác.

Ông nói: “Nếu không có điều này, sẽ khó có thể đảm bảo phương pháp thực hành tốt nhất, tiêu chuẩn và nguyên tắc nhất quán của riêng bạn khi xây dựng các ứng dụng và dịch vụ mới với GenAI.

Royles cho biết: “Các tổ chức nên suy nghĩ khá rõ ràng về cách họ đưa AI vào sản phẩm của mình”. “Và với GenAI, bạn đang sử dụng thông tin xác thực để gọi các ứng dụng của bên thứ ba. Đó là một mối quan tâm thực sự và việc bảo vệ thông tin xác thực là một mối quan tâm.”

Ông nói: “Bạn luôn muốn có thể ghi đè lên những gì GenAI làm.

Làm cho các nhóm phát triển ngày càng rộng hơn, với khả năng tiếp cận cao hơn hoặc chu kỳ thử nghiệm ngắn hơn. Các ứng dụng được xây dựng phải có thể kiểm tra được các tính năng xác thực, chẳng hạn như liệu các khung mã hóa phù hợp có được sử dụng hay không và liệu thông tin xác thực có được bảo vệ theo cách phù hợp và chính xác hay không.

Royles cho biết thêm rằng GenAI có thể được sử dụng cho các nhiệm vụ khác liên quan đến nhà phát triển, chẳng hạn như truy vấn các hợp đồng phức tạp hoặc liệu việc xây dựng hoặc sử dụng ứng dụng này trên thực tế có hợp pháp hay không. Điều này cũng phải được quản lý cẩn thận vì có nguy cơ gây ảo giác về những bằng chứng hoặc tiền lệ pháp lý không tồn tại.

Việc giảm thiểu có thể đạt được một phần bằng cách đào tạo mọi người tăng cường lời nhắc của họ bằng thông tin tốt hơn, phù hợp hơn. Ví dụ: cung cấp một bộ sưu tập dữ liệu có giới hạn, được kiểm tra kỹ lưỡng và hướng dẫn công cụ chỉ sử dụng dữ liệu có thể được tìm thấy rõ ràng trong các bộ dữ liệu đó chứ không phải dữ liệu nào khác, ông lưu ý.

Lệnh cấm sẽ không có tác dụng

Tom Fowler, CTO tại công ty tư vấn CloudSmiths, đồng ý rằng việc cấm các nhà phát triển sử dụng GenAI sẽ không hiệu quả. Mọi người thường sẽ chọn sử dụng công nghệ mà họ cho là giúp cuộc sống của họ dễ dàng hơn hoặc tốt hơn, cho dù điều đó có vi phạm chính sách của công ty hay không.

Tuy nhiên, các tổ chức vẫn nên cố gắng tránh con đường trơn tuột đến mức tầm thường hoặc “ở giữa rác rưởi”, vốn là một rủi ro thực sự khi sự giám sát không đầy đủ hoặc một nhóm có quá nhiều nợ kỹ thuật tìm cách sử dụng GenAI để lấp đầy lỗ hổng trong bộ kỹ năng phát triển của họ. Fowler nói: “Các tổ chức cần phải nhận thức được và đề phòng điều đó. “Bạn cần cố gắng hiểu LLM giỏi ở điểm nào và họ dở ở điểm nào.”

Mặc dù các khả năng đang phát triển nhanh chóng, nhưng LLM vẫn còn “kém” trong việc giúp mọi người viết mã và đưa mã vào sản xuất. Nhóm nhà phát triển có thể cần phải đặt ra một số hạn chế đối với việc sử dụng nó và các tổ chức vẫn sẽ có yêu cầu về kỹ thuật phần mềm, bao gồm các kỹ sư giỏi có kinh nghiệm vững chắc và thực hành đánh giá mã mạnh mẽ.

Fowler nói: “Đối với tôi, bạn có thể sử dụng GenAI để giúp bạn giải quyết rất nhiều vấn đề nhỏ. “Bạn có thể giải quyết một nhiệm vụ rất nhỏ rất nhanh chóng, nhưng chúng không có khả năng xử lý lượng lớn sự phức tạp – các hệ thống kế thừa, hệ thống kỹ thuật được thiết kế để có thể giải quyết các vấn đề lớn. Bằng cách đó con người là tốt. Bạn cần cái nhìn sâu sắc, bạn cần lý luận, bạn cần khả năng lưu giữ bức tranh lớn này trong đầu.”

Anh ấy đồng ý rằng điều này thực sự có thể có nghĩa là bạn sẽ xem xét việc nâng cao kỹ năng cho nhóm phát triển của mình thay vì bỏ phí nó để tiết kiệm tiền.

Một kỹ sư giỏi có thể phân tích một cách chức năng những gì họ đang cố gắng giải quyết thành nhiều vấn đề nhỏ và GenAI có thể được sử dụng đối với những phần riêng lẻ đó. Khi GenAI được yêu cầu trợ giúp về một vấn đề lớn, phức tạp hoặc làm một việc gì đó từ đầu đến cuối, “bạn có thể nhận được rác rưởi”.

Fowler nói: “Bạn có thể nhận được mã sẽ không hoạt động nếu không có sự điều chỉnh hoặc chỉ nhận được ‘lời khuyên’ tồi. “Đó là việc giúp mở rộng quy mô nhóm của bạn và làm được nhiều việc hơn với ít nguồn lực hơn (một phần là kết quả). Và sự ra đời của nhiều phương thức cũng như các mô hình dành riêng cho từng miền, dù được xây dựng từ đầu hay được tinh chỉnh, 100% sẽ là tương lai.”

Cân nhắc về bản quyền

Fowler cho biết, những công ty lớn đang bắt đầu cung cấp các dịch vụ dành cho doanh nghiệp với các biện pháp bảo vệ xung quanh dữ liệu và rò rỉ, v.v., điều này thật “tuyệt vời”, tuy nhiên cho đến nay người ta tương đối ít chú ý đến bản quyền và rủi ro sở hữu trí tuệ khác khi nó liên quan đến mã.

Hãy xem điều gì đã xảy ra khi Oracle kiện Google bằng cách sử dụng API Java. Các tổ chức có thể muốn xem xét những điểm tương đồng và tiền lệ để ngăn chặn những bất ngờ khó chịu có thể xảy ra trong tương lai.

“Sẽ có tiền lệ xung quanh việc điều gì là ổn về mức độ nó được điều chỉnh và thay đổi đủ để có thể nói rằng nó không hoàn toàn giống với thứ gì khác – nhưng chúng tôi vẫn chưa biết,” ông chỉ ra.

Với việc sử dụng GenAI chung và rộng rãi, dữ liệu có thể dễ dàng đến từ thứ gì đó trên Google hoặc Stack Overflow và ở đâu đó trong số đó, IP của người khác có thể được sao chép thông qua thuật toán. Các tổ chức xây dựng công cụ dựa trên LLM vào sản phẩm của họ có thể cần các biện pháp bảo vệ về điều đó.

Fowler nói: “Tất cả những gì đã nói, tôi không tin rằng đó là một rủi ro lớn sẽ ngăn cản hầu hết các tổ chức”.

Leave a Comment

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Scroll to Top