Na początek muszę zwrócić uwagę na pewną nieścisłość – temat na forum jest o "zawodzie programisty", ale pierwszy cytowany artykuł nie mówi nic o tym, że zawód programisty zniknie. Autor tam rozróżnia "kodera" i "programistę", gdzie ten pierwszy jest jedynie przysłowiowym "klepaczem kodu" (potocznie zwanym "code monkey"), a ten drugi rozwiązuje problemy związane z programowaniem.
W każdym razie nie, zawód programisty nie zniknie, ale – patrząc po wynalazkach typu copilot czy gpt-3 – zostanie trochę przyspieszony. Tj. dużo mniej czasu będzie schodzić na pisanie tzw. "boilerplate code", czyli powtarzającego się kodu, który nie ma za dużo logiki (albo ma bardzo typową logikę). Przy tego typu kodzie nie ma za dużo myślenia (do tego stopnia, że mogę słuchać sobie audiobooka jak go pisze), więc jakiś generator, który ma bazę tego typu kodu bardzo pomoże (tudzież już pomaga).
Natomiast żadne "AI" nauczone na bazie obecnej wiedzy nie pomoże przy pisaniu nietypowego kodu, a tego jest całkiem sporo. Czym bardziej złożony i mniej typowy będzie problem, tym "AI" będzie mniej przydatne.
Innym problemem jest wytłumaczenie "AI" co program ma robić. Ludzie dużo lepiej rozumieją kontekst i wymagania w jakim dany kawałek kodu ma operować. Problemem w tym wypadku będzie przekazać ten kontekst "AI" tak żeby ten mógł coś sensownego wygenerować. Może się okazać, że programowanie w przyszłości będzie po prostu pisaniem w naturalnym języku bardzo bardzo bardzo dokładnej specyfikacji, tak żeby "AI" mogło z tego wygenerować kod. Zmieni się więc po prostu język, którym się programuje ("język programowania → kompilator" przejdzie na "język naturalny → AI").
No i nadal będzie potrzeba sporo specjalistów, którzy będą mogli kontrolować AI. To co obecne modele typu copilot/gpt3 podpowiadają jest generalnie jakościowo słabe, i to jest problem, z którym twórcy będą się zmagać lata. Wynika to z starego dobrego "garbage in garbage out" – jeśli "AI" jest nauczone na bazie wiedzy zawierającej błędy, to będzie generować błędny kod. Z mojego osobistego doświadczenia gpt3 zmyśla tak mniej więcej w 50% przypadków, a czym bardziej specjalistyczne tematy się mu rzuca, tym gorzej.
Na pewno czekają nas zmiany, ale jako zawód, to się nigdzie nie wybieramy ;)