Using Gemini 1.5 PRO to Automatically FIX GitHub Issues (Insane) (Part -2)

1littlecoder
13 Mar 202414:05

Summary

TLDRIn diesem Video zeigt der Sprecher, wie man mit Google Gemini 1.5 Pro GitHub-Probleme löst. Er demonstriert, wie er eine vollständige Repo von 'old Lama' herunterlädt und mit Gemini Pro auffordert, GitHub-Probleme zu lösen. Durch das Hochladen des gesamten 'Lama'-Ordners in Google AI Studio kann der Sprecher Fragen stellen und erhält Antworten, die mit der Dokumentation und dem Source Code des Projekts übereinstimmen. Die Demonstration umfasst sowohl einfache als auch komplexere Fragen, wobei das Ergebnis zeigt, dass die AI bei der Lösung von GitHub-Problemen hilfreich sein kann und als erster Support-Schritt für Entwickler nützlich ist, um Zeit bei der Wartung von Open-Source-Projekten zu sparen.

Takeaways

  • 🌟 Google Gemini 1.5 Pro ist ein AI-Programm, das für die Lösung von GitHub-Problemen eingesetzt werden kann.
  • 🔍 Es kann GitHub-Probleme durch Suchen in Dokumentation und Quellcode lösen, indem es relevante Informationen ausgibt.
  • 🚀 Die Leistungsfähigkeit von Google Gemini 1.5 Pro wird durch seine Fähigkeit, den gesamten Codebasis eines Projekts zu verstehen, beeinflusst.
  • 📚 Das Programm kann als nützlicher Programmieraushilfe dienen und die Zeit von Entwicklern, die Open-Source-Projekte pflegen, sparen.
  • 🛠️ Es ermöglicht das Hochladen von Projekt-Repositories und die Beantwortung von Fragen basierend auf dem bereitgestellten Quellcode und Dokumentationen.
  • 📈 Google Gemini 1.5 Pro verfügt über 1 Million Tokens und ein Kontextfenster, das für die Verarbeitung von Anfragen genutzt wird.
  • 📌 Das Programm kann auch für die Erstellung oder Modifikation von Code verwendet werden, indem es vorhandene Skripte bearbeitet und aktualisiert.
  • 🔧 Es bietet Lösungen für spezifische GitHub-Probleme, indem es auf der Grundlage des bereitgestellten Codes und der Dokumentation Antworten generiert.
  • 💡 Google AI Studio, das von Gemini 1.5 Pro unterstützt wird, kann bei der Problemlösung helfen, indem es Fragen beantwortet und Anweisungen gibt.
  • 🔄 Das System kann auch bei der Aktualisierung von Installationsskripten helfen, indem es die bestehenden Skripte erkennt und entsprechend modifiziert.
  • 💬 Die Interaktion mit Google Gemini 1.5 Pro kann dazu beitragen, die Qualität der Unterstützung bei GitHub-Problemen zu verbessern.

Q & A

  • Was ist Google Gemini 1.5 Pro und wie kann es verwendet werden?

    -Google Gemini 1.5 Pro ist eine künstliche Intelligenz-Software, die zur Lösung von GitHub-Problemen eingesetzt werden kann. Es kann verwendet werden, um den gesamten Codebasis eines Projekts zu verstehen und als nützlicher Programmier-Assistent oder als erste Instanz der Unterstützung bei der Lösung von GitHub-Problemen zu dienen.

  • Wie kann man Google Gemini 1.5 Pro auf die GitHub-Probleme anwenden?

    -Man kann Google Gemini 1.5 Pro anwenden, indem man den gesamten Code des Projekts hochlädt, damit es den Kontext versteht und dann spezifische Fragen oder Probleme aus GitHub-Issues eingibt, um Lösungen zu erhalten.

  • Was ist der Vorteil von Google Gemini 1.5 Pro bei der Lösung von GitHub-Problemen?

    -Der Vorteil von Google Gemini 1.5 Pro besteht darin, dass es die gesamte Codebasis eines Projekts verstehen kann, was dazu beitragen kann, präzisere und effektivere Lösungen für auftretende Probleme zu finden.

  • Welche Art von Fragen kann Google Gemini 1.5 Pro beantworten?

    -Google Gemini 1.5 Pro kann eine Vielzahl von Fragen beantworten, die sich auf die Codebasis beziehen, sowie Fragen zu spezifischen GitHub-Problemen, die in Issues diskutiert werden.

  • Wie lange dauert es in der Regel, bis Google Gemini 1.5 Pro eine Antwort liefert?

    -Die Antwortzeit variiert je nach Komplexität der Frage und dem von der AI verwendeten Kontextfenster. In einigen Fällen kann es eine Weile dauern, bis eine Antwort bereitgestellt wird.

  • Kann Google Gemini 1.5 Pro den gesamten AMA-Codebase bearbeiten und verständnisvoll verarbeiten?

    -Ja, Google Gemini 1.5 Pro kann den gesamten AMA-Codebase hochladen, verarbeiten und verstehen, um spezifische Fragen oder Probleme zu lösen.

  • Welche Art von GitHub-Problemen kann Google Gemini 1.5 Pro am besten lösen?

    -Google Gemini 1.5 Pro ist am besten in der Lage, einfache bis mittlere Probleme zu lösen, die in der Dokumentation oder im Code des Projekts klar definiert sind.

  • Könnte Google Gemini 1.5 Pro auch für die Erstellung oder Modifikation von Code verwendet werden?

    -Ja, Google Gemini 1.5 Pro kann verwendet werden, um neuen Code zu erstellen oder bestehenden Code zu modifizieren, basierend auf seiner Fähigkeit, den Kontext und die Anforderungen zu verstehen.

  • Wie kann man Google AI Studio mit Google Gemini 1.5 Pro verwenden?

    -Man kann Google AI Studio verwenden, indem man den gesamten Codebase und die Dokumentation in das System hochlädt und dann spezifische Fragen oder Anfragen stellt, um Lösungen oder Informationen zu erhalten.

  • Welche Rolle spielt die AI bei der Unterstützung von Open-Source-Projekten?

    -Die AI kann als erste Instanz der Unterstützung dienen, indem sie automatisierte Antworten auf GitHub-Issues liefert, die das Auflösen von Problemen beschleunigen und den Entwicklern Zeit sparen.

  • Gibt es Einschränkungen bei der Verwendung von Google Gemini 1.5 Pro?

    -Es gibt möglicherweise Einschränkungen in Bezug auf die Komplexität der Probleme, die es lösen kann, sowie die Genauigkeit der bereitgestellten Lösungen. Es ist auch wichtig, dass es den richtigen Kontext versteht und keine Halluzinationen erzeugt.

Outlines

00:00

🤖 Lösung von GitHub-Problemen mit Google Gemini 1.5 Pro

In diesem Paragraph wird gezeigt, wie man GitHub-Probleme mit Googles Gemini 1.5 Pro löst. Der Sprecher erklärt, dass er eine vollständige Repo von 'old Lama' heruntergeladen hat und Gemini Pro bitten wird, GitHub-Probleme für ihn zu lösen. Er demonstriert dies mit einem einfachen GitHub-Issue über die Deinstallation von 'o Lama' von Ubuntu WSL. Die AI von Google liefert eine genaue Antwort, die dem Dokumentationsmaterial entspricht. Der Sprecher erklärt außerdem, wie er die Repo heruntergeladen und in Google AI Studio hochgeladen hat, um die Funktionsweise zu veranschaulichen.

05:02

🔍 Testen von einfachen und komplexeren GitHub-Problemen

Der Sprecher beschreibt, wie er mit Google Gemini 1.5 Pro sowohl einfache als auch etwas kompliziertere GitHub-Probleme löst. Er wählt ein einfaches Problem aus dem Issues-Logbuch und zeigt, wie er die AI dazu bringen kann, eine Lösung zu finden. Anschließend versucht er, ein etwas schwierigeres Problem zu lösen, aber er findet keine zufriedenstellende Antwort. Er erklärt auch, wie man die GitHub-Probleme auswählt und wie man die AI mit den gewünschten Fragen interagiert, um Lösungen zu finden.

10:02

💡 Anwendung von AI bei der Lösung von GitHub-Issues

In diesem Abschnitt wird gezeigt, wie AI bei der Lösung von GitHub-Issues helfen kann. Der Sprecher erklärt, dass er verschiedene Issues auswählt und Google AI Studio fragt, um Lösungen zu finden. Er diskutiert auch, wie man die Installationsskripts modifizieren kann, um Funktionen wie die Auto-Erkennung des Init-Systems in Linux-Systemen zu unterstützen. Der Sprecher betont, dass AI ein nützliches Werkzeug sein kann, um GitHub-Probleme zu lösen oder zumindest als erste Instanz bei der Unterstützung von Open-Source-Projekten.

Mindmap

Keywords

💡GitHub

GitHub ist eine webbasiertes Git-Repository und ein Codes-hosting-Dienst, der von Entwicklern genutzt wird, um an Projekten zusammenzuarbeiten. Es ermöglicht das Teilen von Code, das Verfolgen von Änderungen und das Zusammenarbeiten an Issues. Im Video wird gezeigt, wie man GitHub-Issues mithilfe von Google Gemini 1.5 Pro löst.

💡Google Gemini 1.5 Pro

Google Gemini 1.5 Pro ist eine KI-basierte Software, die für die Lösung von Programmierungsproblemen und die Verbesserung der Softwareentwicklungsleistung eingesetzt wird. Es verfügt über eine Million Tokens und einen großen Kontextfenster, um komplexe Fragen zu beantworten.

💡Software Engineering

Software Engineering bezieht sich auf den systematischen, wissenschaftlichen und methodischen Ansatz zur Entwicklung, zum Testen, zum Konfigurieren, zum Einsatz und zur Wartung von Software. Im Video wird die Leistung in Bezug auf das Lösen von GitHub-Issues gemessen.

💡AMA

AMA (Ask Me Anything) ist ein Begriff, der oft in Online-Communities verwendet wird, um ein offenes Interview oder eine Diskussion zu beschreiben, bei der jemand Fragen zu allen möglichen Themen beantworten kann. Im Kontext des Videos ist AMA jedoch ein KI-Modell, das zur Lösung von GitHub-Issues eingesetzt wird.

💡Ubuntu WSL

Ubuntu WSL (Windows Subsystem für Linux) ist eine Technologie, die es Windows-Benutzern ermöglicht, Linux-Distributionen wie Ubuntu direkt auf ihrem Windows-Betriebssystem auszuführen. Im Video wird ein GitHub-Issue gezeigt, das sich mit dem Deinstallieren von Ubuntu WSL befasst.

💡AI Studio

Ein AI Studio ist eine Plattform oder Anwendung, die KI-basierte Funktionen wie maschinelles Lernen, Datenanalyse und Automatisierung bietet. Im Video wird Google AI Studio genannt, das mit Google Gemini 1.5 Pro arbeitet, um GitHub-Issues zu lösen.

💡Konversationale Geschichte

Konversationale Geschichte bezieht sich auf die Möglichkeit, dass ein KI-System vorherige Interaktionen oder Fragen berücksichtigt, um eine kontinuierliche und kohärente Konversation mit dem Benutzer zu führen. Im Video wird gefragt, wie diese Geschichte in ein Modell eingebettet wird, um die Interaktion zu verbessern.

💡Docker

Docker ist eine Plattform für die Containerisierung von Anwendungen, die es ermöglicht, Anwendungen und ihre Abhängigkeiten in einem Paket zu kapseln, damit sie überall gleich lauffähig sind. Im Video wird ein GitHub-Issue über Docker-Images und CUDA-Bibliotheken diskutiert.

💡CUDA

CUDA (Compute Unified Device Architecture) ist eine Parallelisierungsplattform und Programmiersprache, die von NVIDIA entwickelt wurde, um ihre GPUs (Grafikprozessoren) für die Verarbeitung von Hochleistungsrechnungen zu nutzen. Im Video wird ein GitHub-Issue erörtert, das sich mit der Unterstützung von CUDA in Docker-Images beschäftigt.

💡Installationsskript

Ein Installationsskript ist ein Programm oder eine Serie von Befehlen, die automatisiert die Installation einer Software auf einem Computer durchführen. Im Video wird ein GitHub-Issue diskutiert, das sich auf ein Installationsskript bezieht.

💡OpenRC

OpenRC ist ein init-System für Unix-ähnliche Betriebssysteme, das für seine Einfachheit und Modularität bekannt ist. Es ist eine Alternative zu anderen init-Systemen wie Systemd oder Upstart. Im Video wird ein GitHub-Issue erörtert, das sich mit OpenRC und dem Installationsskript befasst.

💡Automatisierte Unterstützung

Automatisierte Unterstützung bezieht sich auf die Verwendung von KI oder automatisierten Systemen, um den Support für Benutzer zu verbessern, indem sie Fragen beantworten oder Probleme lösen. Im Video wird gezeigt, wie Google Gemini 1.5 Pro als automatisierter Support genutzt wird, um GitHub-Issues zu lösen.

Highlights

Google Gemini 1.5 Pro is being used to solve GitHub issues, showcasing its capabilities in real-world software engineering tasks.

The AI is able to replicate the demonstrations shown in the video, indicating a high level of accuracy and understanding.

A new GitHub issue regarding uninstalling olama from Ubuntu WSL is used as a test case for the AI's problem-solving skills.

The AI provides a correct solution to the GitHub issue by referencing the official documentation, demonstrating its ability to integrate external knowledge.

The AMA folder is downloaded and uploaded to Google AI Studio, utilizing the MIT license for legal compliance.

Google Gemini 1.5 Pro comes with 1 million tokens for context window, which are used to understand and process the uploaded AMA folder.

The AI can answer both simple and complex questions based on the AMA source code and documentation, showing versatility in handling different query types.

The AI successfully guides through the process of running an LM with olama, providing accurate and detailed instructions.

The AI addresses a GitHub issue about disabling history influence in conversational models, offering a potential solution.

The AI's response to a GitHub issue regarding response format not supported shows its ability to understand and correct API request issues.

The AI suggests creating a Docker file with the necessary Cuda libraries to address a GitHub issue about building Cuda-ready Docker images.

The AI proposes an auto-detect feature for the installation script to identify the current init system on Linux machines, showcasing its coding and modification skills.

The AI's ability to understand and edit code is demonstrated by its attempt to update the install.sh script based on the init system.

The AI's performance in solving GitHub issues suggests its potential as a supportive tool for developers and maintainers of open-source projects.

The AI's capacity to provide solutions to GitHub issues indicates a promising future for AI in software development and debugging.

The video demonstrates the practical application of Google Gemini 1.5 Pro in coding and software engineering tasks, beyond theoretical knowledge.

The AI's interaction with the AMA code base and GitHub issues provides a glimpse into its potential as a collaborative programming tool.

Transcripts

play00:00

I can solve GitHub issues with Google

play00:03

Gemini 1.5 Pro everyone seems to be

play00:06

super impressed with dein supposedly the

play00:08

world's first software engineer and one

play00:10

of the important benchmarks that Devon

play00:12

used is this one this is a real world

play00:14

software engineering performance and

play00:16

they said percentage of GitHub issues

play00:18

resolved by D I can solve GitHub issues

play00:22

with Google Gemini 1.5 Pro if you have

play00:25

got 1.5 pro access you should be able to

play00:28

pretty much replicate every everything

play00:30

that I'm showing on this particular

play00:31

video I'm going to take this entire repo

play00:33

from old Lama and I'm going to ask

play00:36

Gemini Pro to solve giup issues for me

play00:39

first I'm going to pick easier issues

play00:41

like this during the course of the video

play00:43

we'll also see if it can solve slightly

play00:46

more complicated issues than simple

play00:48

issues let me quickly show you a demo so

play00:50

this is a new GitHub issue that was

play00:52

opened just yesterday and the issue is

play00:54

how can I uninstall olama from my Ubuntu

play00:57

WS so I'm going to take this just simply

play01:00

go here and I'm going to go put here

play01:02

that the same thing so I've just

play01:03

literally pasted the same thing here I

play01:06

said solve the following GitHub issue

play01:08

guys how can I uninstall o Lama from my

play01:11

Ubuntu WSL and then it goes on giving me

play01:13

the answer okay it says first stop it

play01:16

then disable it and then it says that I

play01:18

have to remove the file path where o

play01:21

Lama is there which is exactly what is

play01:23

in the documentation and this literally

play01:25

solves this particular GitHub issue so

play01:28

successfully one out of one we have

play01:31

managed to solve using Google Gemini 1.5

play01:34

Pro how have we reached here that's one

play01:36

something that I want to share so what I

play01:38

have done is I have gone ahead and then

play01:41

downloaded the entire AMA folder

play01:44

thankfully this is an MIT license so I'm

play01:46

not violating any copyrights in this

play01:48

particular case so I downloaded the

play01:50

entire repo the entire repo so the way

play01:53

you download a repo is not very

play01:55

difficult you can either get clone it

play01:56

and get it to your local machine or you

play01:58

can go here and then download the

play02:00

zip file so after I downloaded this ZIP

play02:02

file I unzipped it and I got the entire

play02:05

folder here this is the total folder of

play02:08

wama and it has got documentation it has

play02:11

got the source code it has got examples

play02:13

it has basically got everything that you

play02:15

need to understand AMA now Google Gemini

play02:19

1.5 Pro comes with 1 million tokens

play02:23

context window as you can see here I out

play02:25

of 1 million tokens context window I've

play02:29

already used up close to 300,000 that is

play02:31

because the first thing that I did here

play02:34

is I uploaded the entire olama file so I

play02:37

downloaded the W folder the repo

play02:40

unzipped it and I uploaded the entire W

play02:43

folder to Google AI Studio which is now

play02:47

powered by Gemini 1.5 Pro and with after

play02:52

I do this now is the time I can go ahead

play02:54

and ask any question I can start with a

play02:57

very simple question and I can go with

play02:59

complicated question question so let's

play03:00

start with a very simple question for

play03:03

bravy I will edit the response time so

play03:07

the response time might be longer based

play03:09

on the tokens that you have got but uh

play03:12

I'm not going to show you the entire

play03:13

time that you have to wait but you can

play03:15

understand that it will take a little

play03:16

bit of time for it to run so the first

play03:18

question is give how to use

play03:23

olama for running an running an LM maybe

play03:28

simple question let's see how to use ol

play03:30

for running a lum it's a very poorly

play03:32

formed question but as you can see here

play03:35

the question is sent to this particular

play03:37

system and the chat this particular

play03:39

session has got knowledge about olama

play03:42

source code which has got the source

play03:44

code and also the documentation so it is

play03:46

going to take the documentation and the

play03:48

source code and it is ultimately going

play03:50

to give me an answer which will evaluate

play03:53

whether it is the right answer or not

play03:55

comparing the documentation or all the

play03:56

other things meanwhile I can go to the

play03:59

documentation here and then see if they

play04:01

have got any example here so you can see

play04:03

there is a Linux example you can see

play04:05

there is a readme.md so there's a quick

play04:07

start you can quick see quick start and

play04:10

how to start AMA so download the model

play04:12

like this and then you can just run the

play04:14

model now when we go to our Google AI

play04:17

Studio it is uh guiding us so the

play04:20

question is how to use ol for running an

play04:21

llm it says Okay first install AMA then

play04:24

you pull the model and then you run the

play04:26

model and then you ask the question this

play04:28

is 100 % the right way to run AMA in

play04:31

fact it goes on and gives me couple of

play04:33

options one is the ca option the

play04:35

interactive mode option the AA option

play04:38

and then it gives me the path in fact

play04:40

like okay you want model options go

play04:42

click here I'm clicking the file

play04:44

hopefully it's not hallucinated it's not

play04:45

hallucinated and I have got the entire

play04:47

model file if I want to customize the

play04:50

llm with let's say system prompt with my

play04:53

own temperature value with my own hyper

play04:56

parameters for the llm which also works

play04:59

100% completely and it also says GPU

play05:02

acceleration if you have compatible

play05:03

Nvidia GPU AMA can leverage it for

play05:05

faster inference ensure you have the

play05:08

necessary cod. drivers and configuration

play05:10

so the first test very simple code it

play05:13

successfully gave now the second thing

play05:15

that I want to do is I'm going to go

play05:17

pick one of the GitHub issues I'm going

play05:18

to go click issues here and uh I'm going

play05:21

to start with very simple questions so

play05:23

I'm going to select the question tag and

play05:26

inside the question tag I'm going to I'm

play05:29

going to find question so let's let's

play05:31

pick a question here which is maybe just

play05:34

easy to read so here integrated GPU

play05:38

support it says integrated GPU support

play05:41

and what is the answer the answer goes

play05:43

on back and forth back and forth back

play05:44

and forth I'm not picking up this kind

play05:47

of an issue because uh it might be

play05:50

little difficult for us to validate

play05:51

whether it will work or it will not work

play05:54

so let's pick one more issue here so it

play05:56

says okay there is no way to disable

play05:58

this in the Ripple although if you want

play05:59

to clear out the current context you can

play06:01

use load model OKAY some some issue is

play06:03

there so I'm going to go take this

play06:05

question right and I'm going to come

play06:08

back here and then ask this question

play06:11

here is a GitHub issue on ol repo help

play06:16

me Solve IT paste the solution send it

play06:21

at this point the entire text goes I'm

play06:22

not putting a lot of effort in

play06:24

formatting and this text is sent there

play06:27

so I'm going to go back and then just

play06:28

read it for my understanding okay I want

play06:30

to understand how does a conversational

play06:31

history is fed back into the template

play06:34

from the model file here is the model

play06:36

file I'm able to do conversational

play06:38

question and answering on the terminal

play06:40

but I'm not sure how does a template

play06:42

take care of the history so the answer

play06:44

here is that there is no way to disable

play06:46

this in the Ripple on the contrary how

play06:48

do I disable such Behavior I want to run

play06:50

a fine tune model which just answer

play06:52

based on the question I don't want it to

play06:54

get influenced by the previous question

play06:56

so right now there is no way to clear

play06:58

out and you can just use load model it

play07:00

says you can use the fresh load model to

play07:03

load the fine tune model that you have

play07:05

got and uh if you want to load the model

play07:07

again it will remain in the memory and

play07:10

it won't be reloaded and it will make

play07:11

the model forget anything from before so

play07:14

this is the only option let's see if

play07:16

Google AI Studio can figure out so it

play07:18

gives a solution I don't think it has

play07:20

figured out okay con fedback okay it

play07:22

explains how the conversation is fled

play07:24

black okay cool it says R okay disabling

play07:28

the history influence it says you can

play07:30

reduce the number of context parameter

play07:32

uh that can reduce I don't think that is

play07:34

valid it says you can clear the context

play07:37

in the terminal use a command set

play07:39

context okay to reset the context I'm

play07:42

not sure how 100% right it is but um

play07:45

will it work I'm not sure like you can

play07:47

set the context and reset if you want to

play07:49

completely isolate the question from

play07:51

previous interactions you can manually

play07:52

clear the context before each new

play07:53

question in the terminal you can use

play07:55

this and then do this cool uh I don't

play07:58

know honestly I don't know if if it will

play08:00

work if you think it will work let me

play08:02

know in the comment section but um it

play08:03

somehow gave me the answer let's pick

play08:05

the next get up issue which in this case

play08:07

the title is response format not

play08:09

supported when sending this request to

play08:11

open AA endpoint I don't get the

play08:13

requested Json and the answer to this is

play08:16

it looks like you may be sending a

play08:18

response schematic in the response

play08:20

format this is not supported by AMA

play08:23

currently one format Json is supported

play08:26

okay so that is the solution and

play08:28

somebody else came and gave one more

play08:29

solution that we have got uh there is a

play08:31

work around let's use the same thing and

play08:34

I have given the same question here as

play08:36

you can see here I pasted the entire

play08:38

thing and then it kind of gives me the

play08:40

response back once again the response is

play08:42

slightly more veros maybe we can control

play08:44

that by giving a condition there one of

play08:46

the answers which is exactly what the

play08:49

GitHub answer here is is the format Json

play08:53

and as you can see here it says correct

play08:55

format parameter double check the format

play08:57

parameter in your API request it said to

play08:59

Json this is essential for requesting

play09:02

Json output and it also gives me the

play09:05

example code with the same thing that I

play09:07

can send and get the exact same format

play09:10

which is Json not validating the last

play09:13

one but this kind of um explains how to

play09:16

do it and 100% solves the issue so let's

play09:19

pick one more GitHub issue here which is

play09:23

and let's pick one of the closed ones

play09:24

because it's we know that it has got a

play09:26

solution build Cuda ready docker image

play09:29

um let's see if it works currently the

play09:32

official image container does not

play09:34

contain necessary Cuda libraries this is

play09:36

inconvenient and um there is I see you

play09:40

have provided Rock M images for AMD gpus

play09:43

can you provide C images if that's not

play09:45

feasible how about providing a specific

play09:46

Docker file I'm using AMA container this

play09:49

one and Cuda libraries are there let's

play09:51

see if Google can figure out the answer

play09:53

and then give us let's ask the same

play09:55

question currently the official

play09:57

container image does not Coda libraries

play10:00

send the same question let's see what it

play10:02

gives back I've got a response back it

play10:04

says okay it agrees that it is not

play10:06

possible and it gives me an option to

play10:09

create a Docker file which is take from

play10:12

the AMA current image and then install

play10:14

the Cod libraries whatever that is

play10:15

required build the image run the image

play10:18

and there is a second option it says we

play10:20

can use nvidia's container toolkit let

play10:22

me click this and then see if it works

play10:24

actually oh obviously the link works

play10:26

it's not hallucinated link and then we

play10:28

have the response back

play10:29

once again I'm not sure if it works but

play10:32

it looks compellingly correct so so far

play10:34

we have tried a bunch of easy issues and

play10:38

in many cases I found the response is

play10:41

really good like I can I can see that it

play10:43

is a good response now what we are going

play10:45

to do is instead of taking a question

play10:48

which is the question labeled GitHub

play10:50

issue let's take one of the issues which

play10:53

is uh let's say like a request or

play10:55

something like that so I'm going to go

play10:56

here and then pick one of the feature

play10:58

request

play10:59

so open RC in it support so it says

play11:02

could be really nice if the installation

play11:04

script had Auto detect feature to

play11:07

identify the current ran in it system on

play11:09

the Linux machine to paste the entire

play11:11

thing and then I'm going to go here and

play11:16

solve this and send this that's it um

play11:20

because that this particular session

play11:23

already knows code and it also has got

play11:25

the other external knowledge it'll be

play11:27

really interesting to see if it can

play11:29

create new code or modify the existing

play11:32

install.sh script it took about 50

play11:34

seconds for it to create okay it says I

play11:37

agree that auto detect feature and the

play11:38

install s script would be helpful here

play11:41

is a possible approach it gives me this

play11:44

approach detect the init system check

play11:47

for this this one if we check or check

play11:49

for open RC open RC is exactly what this

play11:52

person has shown so that they have got

play11:54

open RC so it says detect it and then

play11:56

give me and install W service file

play11:59

accordingly and then you can install it

play12:01

and then you have open RC integrated

play12:03

integration into install s so it says

play12:06

replace the existing init system

play12:08

specific install logic in the install sh

play12:11

file so it tells us to do it and if we

play12:14

go here and then we find the file which

play12:16

is uh the install sh scripts file go

play12:19

file you can see here so now what I'm

play12:21

going to do is I'm going to say replace

play12:24

it and give me the entire file so I'm

play12:25

going to say replace it yourself and

play12:28

give me the new

play12:30

install.sh file and I want to the reason

play12:34

I'm asking this is I want to know

play12:35

whether it can actually fetch the

play12:37

install.sh file make the changes in the

play12:40

right place it give and then return us

play12:42

back and um that is very important

play12:44

because anybody can give this suggestion

play12:47

the fact that it knows all these

play12:48

information I think it makes it far

play12:50

superior if it can edit the code and

play12:52

give us back we have got the updated

play12:54

code here uh the updated code honestly

play12:56

like looks much smaller than what we

play12:59

have so it doesn't look like probably it

play13:02

has got the code directly from here

play13:04

because it has probably missed a lot of

play13:06

parts maybe that is something that we

play13:07

should explicitly say go here and then

play13:10

get it which is what the de team said

play13:13

but I think it has done a decent job uh

play13:16

with uh okay identifying the init system

play13:19

here and then based on that giving the

play13:21

particular set of installation based on

play13:23

whatever init system that has got so at

play13:25

this point uh I just wanted to give you

play13:27

a glipse of how to to solve GitHub

play13:30

issues with AI and I think like it is

play13:32

extremely helpful that you have got an

play13:34

AI system that can understand the entire

play13:36

code base of your own project so it can

play13:39

be a useful pair programmer and it can

play13:41

be helpful in solving GitHub issues or

play13:43

at least like you can have like the

play13:45

first line of support which is like the

play13:47

AI generated answer added automatically

play13:50

to the GitHub issue which could solve

play13:53

the time of the developer who is

play13:54

maintaining an open source project if

play13:56

you are interested in me checking out

play13:58

any other Library let me know in the

play13:59

comment section but I'm super interested

play14:01

in trying Google Gemini 1.5 Pro for

play14:04

coding more

Rate This

5.0 / 5 (0 votes)

Related Tags
AI-ProgrammierungGitHub-SupportGemini 1.5 ProSoftware-EngineeringProblemlösungAI-AssistentOpen-Source-ProjekteAutomatisierte-HilfeGoogle-TechnologieInnovation
Do you need a summary in English?